ChatGPT, passato e futuro dell’IA che sta ricablando il presente
                                ChatGPT ha progettato un robot, insieme a un gruppo di ricercatori dell’Università di Delft (Paesi Bassi) e dell’Epfl di Losanna (Svizzera), superando una nuova frontiera: quella dell’IA che che partecipa alla “creazione” di altri “organismi” sintetici. Prima di approfondire funzionamento e implicazioni del braccio robotico figlio del chatbot, torniamo indietro, per inquadrare ChatGPT nelle sue numerose sfaccettature.
Cos’è ChatGPT?
ChatGPT esiste da pochissimo: il chatbot basato su intelligenza artificiale e apprendimento automatico, specializzato nella conversazione con esseri umani, è stato lanciato il 3 novembre 2022. ChatGPT è un modello di linguaggio sviluppato da OpenAI messo a punto con tecniche di apprendimento automatico. Sia l’apprendimento supervisionato che l’apprendimento per rinforzo utilizzano istruttori umani per migliorare le prestazioni del modello.
Cosa fa ChatGPT?
ChatGPT è uno strumento di elaborazione del linguaggio naturale, che può essere utilizzato per applicazioni come:
- Chatbot personalizzati per il servizio clienti o le vendite.
 - Completamento e suggerimento del testo: attività come la digitazione predittiva o la generazione di testo.
 - Generazione di testo: generare descrizioni, titoli o qualsiasi altro tipo di testo che necessiti di simulare la scrittura naturale.
 - Traduzione automatica: costruire chatbot multilingue.
 - Analisi del sentiment: analizzare il tono complessivo di un testo, consentendo di determinare se un testo è positivo, negativo o neutro; utile per attività come il servizio clienti o il monitoraggio dei social media.
 - Riassunto: riassumere lunghi brani di testo in versioni più brevi.
 - Creazione di contenuti: creazione di post sui social media o articoli di blog.
 - Classificazione del testo: classificare il testo in categorie, come spam o non spam, o sentiment positivo o negativo. Per compiti come il filtraggio di e-mail o la moderazione di discussioni online.
 - Sistemi basati sulla conoscenza: costruire chatbot in grado di fornire informazioni agli utenti.
 - Sintesi vocale: generare il parlato dal testo, creando versioni audio di contenuti scritti o assistenti vocali in grado di comprendere e rispondere a input.
 
La diffusione di ChatGPT
Al 2023, ChatGPT è stato il servizio tecnologico che ha raggiunto più velocemente i 100 milioni di utenti, in soli due mesi. Secondo un sondaggio condotto dal sito Resumebuilder.com su un campione di 1.000 aziende nel 2023, la metà utilizzava ChatGPT per numerose attività interne: la generazione di codice, la creazione di contenuti, l’invio di domande di lavoro e l’automazione delle relative risposte, nonché per ricapitolare il lavoro delle riunioni.
I dubbi su ChatGPT
- ChatGPT ha ancora un certo margine di imprecisione, pur imparando da ogni interazione e assottigliando progressivamente la percentuale di errore. Mike Pearl di Mashable l’ha messo alla prova; in un esempio di risposta sbagliata, ha chiesto al modello “il Paese più grande dell’America centrale che non sia il Messico”, ricevendo come risposta Guatemala, quando quella esatta è invece Nicaragua.
 - Axe Sharma di Bleeping Computer attesta che ChatGPT è in grado di scrivere malware ed e-mail di phishing.
 - Anche il mondo della Scienza è in fermento per ChatGPT. Il chatbot è in grado infatti di generare testi accademici convincenti e, secondo quanto riportato su Nature, è stato incluso come autore in almeno quattro articoli scientifici.
 - C’è poi tutta una serie di preoccupazioni di stampo etico, educativo, economico e macrosociale, che approfondiamo nell’ultimo paragrafo.
 
Il blocco e lo sblocco in Italia, un caso unico al mondo
A seguito di una perdita di dati (data breach) riguardanti le conversazioni degli utenti, dal 31 marzo al 28 aprile 2023 il servizio è stato temporaneamente sospeso in Italia, con provvedimento del Garante per la protezione dei dati personali. L’Italia è stato il primo Paese al mondo a sospendere il servizio. Per la riattivazione, il Garante ha chiesto a OpenAI:
- Di predisporre e pubblicare sul proprio sito internet un’informativa privacy, in modo da illustrare a tutti gli interessati, anche diversi dagli utenti del servizio, i cui dati erano stati raccolti e trattati per addestrare gli algoritmi di ChatGPT, le modalità di trattamento di detti dati, la logica alla base del trattamento e i diritti spettanti agli interessati.
 - Di inserire uno strumento, all’interno del sito internet dove viene svolto il servizio di ChatGPT, con cui gli interessati possano esercitare il diritto di opporsi ai trattamenti dei propri dati personali.
 - Di permettere agli interessati di chiedere e ottenere la correzione dei propri dati personali che fossero eventualmente errati oppure, qualora fosse impossibile tale rettifica, la cancellazione di tali dati.
 - Di inserire un link che rimandi all’informativa privacy, in modo che gli utenti del servizio possano prendere visione della stessa prima di registrarsi nell’APP.
 - Di modificare la base giuridica in virtù della quale OpenAI ha dichiarato di effettuare il trattamento dei dati personali degli utenti per addestrare i propri algoritmi, togliendo il riferimento al contratto e indicando come base giuridica il consenso dell’interessato o il legittimo interesse della società.
 - Di inserire un blocco relativo alla maggiore età, in modo tale da impedire l’accesso agli utenti minorenni.
 - Di prevedere strumenti idonei a verificare l’età anagrafica degli utenti.
 - Di promuovere una campagna informativa sui principali messi di comunicazione di massa italiani, concordando i contenuti con il Garante, in modo da informare le persone che potrebbero essere raccolti i loro dati personali per addestrare gli algoritmi.
 
Pur se OpenAI ha recepito gran parte delle richieste e aggiornato ChatGPT, le negoziazioni col Garante italiano (e con gli omologhi di altri Paesi) non sono terminate, per due motivi: OpenAI deve ancora adeguarsi ad alcune richieste della prima mandata, per esempio per quanto riguarda i sistemi di verifica dell’età per bloccare l’accesso agli under 13; si prevede che agli sviluppatori pervengano richieste sulla tutela degli utilizzatori sempre più stringenti, visto il ritmo forsennato a cui si evolve l’intelligenza artificiale e i rischi sottesi a una galoppata a briglie sciolte.
Il braccio robotico
Secondo i ricercatori delle università menzionate a inizio articolo, impegnate nella realizzazione di un braccio robotico per la raccolta di pomodori, chiamato “robot contadino”, i suggerimenti del chatbot si sono rivelati molto utili e puntuali. I risultati della ricerca sono stati pubblicati sulla rivista scientifica Nature Machine Intelligence.
La scelta è ricaduta sulla raccolta di pomodori perché la piattaforma di intelligenza artificiale ha suggerito che la loro coltivazione fosse fra le più convenienti da automatizzare. I consigli di ChatGPT si sono rivelati utili anche nelle fasi più pratiche del progetto: ad esempio ha lanciato l’idea di costruire in silicone o in gomma la pinza che raccoglie i pomodori, per evitare che vengano schiacciati.
“Tuttavia – precisa Francesco Stella, autore dello studio. – ci siamo resi conto che il nostro ruolo di ingegneri si è spostato verso l’esecuzione di compiti più tecnici”.
Inoltre, sottolinea Cosimo Della Santina, secondo autore dello studio: “I risultati ottenuti dai sistemi di apprendimento automatico possono essere fuorvianti e necessitano di essere verificati e convalidati da un essere umano. I bot di intelligenza artificiale vengono progettati per generare la ‘risposta più probabile’ a una domanda, quindi esiste il rischio che portino disinformazione e pregiudizi nella robotica”.
Quali sviluppi futuri per ChatGPT?
Da segnalare il caso relativo a un dirigente di una scuola del padovano, in Veneto, che ha iniziato mesi fa a usare ChatGpt per scrivere le circolari. Ecco le sue parole: “Non può essere considerata un oracolo, richiede una programmazione. In classe può sostituirsi al pensiero critico dei ragazzi. Un conto è che a 45 anni lo usi il dirigente, un altro che un ragazzo di 14 anni scriva un tema di fantasia con ChatGpt. I docenti devono essere consapevoli e preparati a mettere tra le mani dei ragazzi questo strumento. Sinceramente non siamo in una situazione in cui abbiamo presidi preparati per affrontare questa questione. Con l’intelligenza artificiale puoi generare immagini, uno strumento molto delicato se messo in mano a un ragazzo. Dunque va regolamentato, serve fare formazione”.
Il modello, pur se genera innovazioni dall’indubbio fascino e utilità come ChatGPT, non è costruito a misura di utente, ma sull’asimmetria di potere e informativa tra le parti. L’intervento del Garante italiano è da considerare, in questo senso, apprezzabile (pur se non bastevole).
E cosa è bene sapere per un approccio corretto?
ChatGPT, in quanto IA, dovrebbe essere intrinsecamente neutrale, ma è in realtà tarata sulle convinzioni, l’idea di mondo e di società e anche i pregiudizi dei propri creatori e si evolve sulla base di interazioni con utenti che a loro volta possono diffondere visioni distorte, pregiudizievoli e addirittura pericolose del mondo. Non è un dono divino, ma un tool digitale che si riplasma continuamente, spesso con meccanismi imponderabili per l’utente e secondo la logica commerciale del maggior utilizzo (ogni utilizzo della piattaforma è commercialmente buono, perché porta utili da pubblicità/abbonamenti, pur se potrebbe essere moralmente opinabile, ad esempio volto alla diffusione di idee razziste sul chatbot).
Vista la normalizzazione di cui ChatGPT inizia a essere oggetto anche in contesto scolastico (da nemico pubblico numero uno a occasione per nuove forme di apprendimento), ci sentiamo di consigliare cautela a dirigenti scolastici, genitori e legiferatori. La nuova generazione, con il suo dinamismo percettivo e la la fame di novità, potrebbe essere data in pasto a a forze imponderabili ma con un’eco tangibile sulla direzione sociale e con una risonanza diretta su psiche e benessere mentale e lavorativo degli individui. Con, anche, la sparizione di intere categorie professionali (vedi quelle creative-artistiche, risucchiate in ruoli meccanici).
Le IA e i computer sono strumenti potentissimi e utili, ma non perseguono – non per colpa loro: sono programmate così! – interessi neutrali o intrinsecamente benefici, questo ricordiamolo sempre. E di certo necessitano di regolamentazioni precise e che tengano conto dei potenziali rischi.