Modelli e strategie

L’intelligenza artificiale e la responsabilità umana: cinque principi per gestire questa rivoluzione

Il crescente utilizzo dell'Intelligenza Artificiale ed il suo enorme potenziale di sviluppo inducono anche la comunità scientifica a interrogarsi sulle sfide emergenti e provare a tracciare un percorso per il futuro
Condividi
L’intelligenza artificiale e la responsabilità umana: cinque principi per gestire questa rivoluzione

I progressi rivoluzionari nell’intelligenza artificiale (IA) ci hanno portato a un momento di trasformazione per la scienza. L’Intelligenza Artificiale sta accelerando le scoperte scientifiche e le analisi”, e “allo stesso tempo, i suoi strumenti e processi sfidano le norme e i valori fondamentali nella conduzione della scienza, tra cui responsabilità, trasparenza, replicabilità e responsabilità umana”.

Inizia con queste parole un interessantissimo articolo pubblicato nelle pagine del PNAS – Proceedings of the National Academy of Sciences, una delle riviste scientifiche multidisciplinari più citate e complete al mondo – intitolato “Protecting scientific integrity in an age of generative AI”.

Intelligenza artificiale e responsabilità umana: la rivoluzione per la risoluzione delle nuove sfide
Integrità della scienza, esplorazione delle questioni etiche e responsabilità
Intelligenza artificiale e responsabilità umana: responsabilità e responsabilizzazione
Uno: non nascondersi mai
Due: verifica e analizza
Tre: tieni traccia di tutto
Quattro: inclusività
Cinque: monitora (anche l’ipocrisia)

Intelligenza artificiale e responsabilità umana: la rivoluzione per la risoluzione delle nuove sfide

Con l’integrità scientifica e la responsabilità in mente”, la National Academy of Sciences ha coordinato i lavori di un panel interdisciplinare di esperti con lo scopo di esplorare le sfide emergenti poste dall’uso dell’IA generativa e di tracciare un percorso per il futuro della comunità scientifica, il cui “potere di interagire con gli scienziati in modo naturale, di eseguire tipi di risoluzione dei problemi senza precedenti e di generare nuove idee e contenuti pone sfide ai valori di lunga data e all’integrità degli sforzi scientifici”.

Sfide complesse che rendono più difficile per gli scienziati, la più ampia comunità di ricerca e il pubblico non solo comprendere (e confermare) la veridicità dei contenuti, delle revisioni e delle analisi generate, ma anche garantire la trasparenza lungo tutta la filiera, dalla generazione dei prompt all’analisi dei risultati.

Integrità della scienza, esplorazione delle questioni etiche e responsabilità

Per questi motivi, e per “proteggere l’integrità della scienza”, gli autori dell’articolo:

  • invitano la comunità scientifica a “rimanere salda nel rispettare le norme e i valori guida della scienza”;
  • sostengono le raccomandazioni di un recente rapporto delle National Academies che esplora questioni etiche nella ricerca informatica e promuove pratiche responsabili attraverso l’educazione e la formazione;
  • riaffermano le conclusioni contenute nello stesso report, sui “flussi di lavoro di ricerca automatizzati responsabili”, che hanno richiesto “la revisione umana degli algoritmi, la necessità di trasparenza e riproducibilità, e gli sforzi per scoprire e affrontare i pregiudizi” e le disuguaglianze introdotte dagli algoritmi IA, esortando la comunità scientifica a concentrarsi sui “Five Principles of Human Accountability and Responsibility”.

Intelligenza artificiale e responsabilità umana: responsabilità e responsabilizzazione

Letteralmente, “accountability” significa “responsabilizzazione”, ovvero l’adozione di comportamenti attivi che dimostrino la concreta adozione di misure finalizzate alla corretta applicazione di tutte le norme, prassi, regolamenti per proteggere l’integrità della scienza, la sua credibilità e la credibilità di chi dovrebbe, in un futuro più vicino di quanto non si immagini, aiutarci criticamente e costruttivamente: l’AI.

Più che un termine, “accountability” è un concetto, un approccio.

La traduzione in italiano che più si avvicina è quella di “responsabilizzazione”, che tuttavia non è sufficiente: occorre uno sforzo ermeneutico ulteriore per coglierne per intero il più ampio significato.

In estrema sintesi, si può dire che l’accountability non ha a che fare tanto (o, per lo meno, non solo) con la posizione di responsabile, ma con l’atteggiamento proattivo che deve connotarne l’operato: con accountability, infatti, si fa riferimento all’approccio responsabile che ogni organizzazione è tenuta ad adottare, prima ancora del momento in cui lo stesso verrà gestito.

I cinque principi di responsabilità, cui il report fa riferimento, sono:

  1. «divulgazione e attribuzione trasparenti»;
  2. «verifica dei contenuti e delle analisi generati dall’IA»;
  3. «documentazione dei dati generati dall’IA»;
  4. «etica ed equità»;
  5. «monitoraggio continuo, supervisione e coinvolgimento pubblico».

Uno: non nascondersi mai

Potremmo tradurre così il primo principio invocato dal PNAS: in sostanza, gli scienziati dovrebbero dichiarare apertamente di far uso dell’IA generativa nella ricerca.
È il primo passo della credibilità, in fin dei conti.

Saper distinguere e attribuire i meriti delle “idee primigenie” all’uomo o all’AI, “riconoscendo i rispettivi contributi” e fornire “dettagli accessibili al pubblico sui modelli, inclusi i dati utilizzati per addestrarli o perfezionarli”, così come “fornire archivi a lungo termine dei modelli per consentire la replicabilità” e “perseguire innovazioni nell’apprendimento e nel ragionamento”. Ammettere gli errori nei quali si è incorsi non significa nient’altro che essere trasparenti nei mezzi e nei fini.

L’IA ci deve aiutare nel generare più in fretta e meglio idee (e soluzioni per la risoluzione dei problemi) alle quali saremmo comunque arrivati, ma dopo, o in ritardo. E/ma deve essere governata, nella totale trasparenza.

Non dobbiamo averne paura e anzi, dobbiamo cogliere le opportunità, senza vergognarcene.

Due: verifica e analizza

L’IA è uno strumento, e come tale deve essere utilizzato.

I risultati che produce sono il frutto non solo dell’accuratezza delle istruzioni che gli forniamo, ma anche della qualità del controllo e delle analisi sugli “output artificiali”.

E quando “non è possibile verificare la veridicità del contenuto generato, l’output del modello dovrebbe fornire valutazioni di fiducia chiare e ben calibrate. I creatori di modelli dovrebbero identificare, riportare e correggere proattivamente i pregiudizi negli algoritmi IA che potrebbero distorcere i risultati della ricerca o le interpretazioni”.

Tre: tieni traccia di tutto

Uno dei rischi più evidenti nell’uso dell’IA nella scienza riguarda la generazione di dati e contenuti sintetici che potrebbero essere erroneamente interpretati come reali. Per questo, la capacità dell’IA di creare testi, immagini e dati che imitano le osservazioni del mondo reale ha spinto la comunità scientifica a richiedere una rigorosa documentazione della provenienza dei dati generati dall’IA. Gli scienziati hanno il dovere di:

  • contrassegnare chiaramente tutti i contenuti generati dall’IA, specificando il ruolo che l’intelligenza artificiale ha giocato nel processo di produzione: questa trasparenza è fondamentale per evitare che i dati sintetici vengano confusi con osservazioni empiriche;
  • mantenere una traccia dettagliata della provenienza dei dati, al fine di prevenire il rischio di riutilizzare contenuti generati al computer in contesti futuri, dove potrebbero causare distorsioni o errori nei modelli successivi.
Questa trasparenza è strettamente correlata con il primo principio: presentare tali dati come se fossero reali comprometterebbe non solo la validità della ricerca, ma anche la fiducia del pubblico nei risultati scientifici.

Quattro: inclusività

Uno degli aspetti più controversi dell’IA riguarda il suo utilizzo nelle decisioni critiche, come nei processi di peer review o nelle valutazioni per il finanziamento di progetti scientifici. L’idea che l’IA possa intervenire in decisioni di questo tipo solleva questioni etiche fondamentali, dal momento che la mancanza di un’intelligenza emotiva e il potenziale di introduzione di bias rendono l’IA uno strumento inadeguato per decisioni che richiedono una valutazione umana attenta.

Senza supervisione umana attenta – si sottolinea – l’uso dell’IA in tali processi potrebbe portare a decisioni inique o sbagliate, minando la fiducia nel sistema di ricerca.

La democratizzazione degli strumenti IA deve essere un obiettivo prioritario per garantire che non solo le grandi istituzioni o i Paesi avanzati ne traggano beneficio, ma anche le comunità sottoservite o emarginate.
Bene: peccato che il problema sia (soprattutto?) a monte.

Cinque: monitora (anche l’ipocrisia)

I bias nei dati di addestramento, infatti, possono riflettere pregiudizi già presenti nelle società umane: preoccuparsi dei potenziali effetti dannosi che si potrebbero verificare senza un adeguato controllo – e senza promuovere equità ed equo accesso alle opportunità scientifiche e tecnologiche – tuttavia, appare quanto meno ipocrita, senza una altrettanto dura lotta ai pregiudizi e alle iniquità… umane.

Ad ogni modo, l’IA è una tecnologia in rapida, rapidissima evoluzione e, con essa, cambiano anche le implicazioni etiche e scientifiche: per questo motivo, il monitoraggio costante del suo impatto sulla ricerca scientifica è essenziale.

Senza dimenticarci che l’IA è uno strumento, e la sua pericolosità o meno dipende anche, e soprattutto, da chi e come lo utilizza…

Condividi

Potrebbero interessarti

Decreto Salva Casa

Pubblicato sulla Gazzetta Ufficiale n. 124 del 29 maggio 2024 il Decreto Legge 29 maggio 2024, n. 69 recante “Disposizioni urgenti in materia di...

Nuovo Codice appalti

Un vero e proprio cambio di paradigma, mirato a ristabilire un equilibrio tra la necessità di velocizzare le procedure di appalto e...

Condominio

Dalla costituzione del condominio alla gestione delle tabelle millesimali, dalle delibere assembleari ai lavori edilizi e ai titoli abilitativi:...

Il MASE aggiorna i c.d. CAM strade

Andrea Castelli
Andrea Castelli - Avvocato
Marco Loche
Il MASE interviene in maniera specifica su alcune parti del precedente Provvedimento 5 agosto 2024, dato che è emersa la necessità di correggere...