Normativa UE sull’Intelligenza Artificiale: un’analisi della regolamentazione
Come noto, il Parlamento europeo ha adottato la sua posizione negoziale sul Regolamento sull’Intelligenza Artificiale (IA) con 499 voti a favore, 28 contrari e 93 astensioni ed è pronto ad avviare i colloqui con i governi UE sul testo definitivo. L’AI Act, ossia il Regolamento UE 2024/1689 del 13 giugno 2024, è stato pubblicato nella Gazzetta Ufficiale dell’Unione Europea del 12 luglio 2024. Le norme mirano a garantire che l’IA sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell’UE, ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale.
Analisi del primo Regolamento sull’Intelligenza Artificiale europeo
In particolare, si parla di “promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell’ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell’Unione, sostenendo nel contempo l’innovazione e migliorando il funzionamento del mercato interno”.
Di conseguenza l’IA non deve sostituire l’autonomia umana o presupporre la perdita della libertà individuale e deve essere principalmente al servizio della società e del bene comune. Nell’intento dei deputati europei bisogna prevedere misure per garantire lo sviluppo e l’utilizzo di un’intelligenza artificiale eticamente integrata che rispetti i valori dell’Unione e la Carta.
Obiettivi del primo Regolamento sull’Intelligenza Artificiale europeo: evitare la frammentazione
I sistemi di IA possono essere facilmente impiegati in molteplici settori dell’economia e della società, anche a livello transfrontaliero, e circolare in tutta l’Unione. Alcuni Stati membri hanno già preso in esame l’adozione di regole nazionali per garantire che l’intelligenza artificiale sia affidabile e sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano o utilizzano sistemi di IA.
Pertanto, con questo regolamento si intende garantire un livello di protezione costante ed elevato in tutta l’Unione al fine di conseguire un’IA affidabile, mentre devono essere evitate le divergenze che ostacolano la libera circolazione, l’innovazione, la diffusione e l’adozione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell’articolo 114 del trattato sul funzionamento dell’Unione europea (TFUE).
Consentire un ecosistema europeo di attori pubblici e privati che creino sistemi di IA in linea con i valori dell’Unione
Tali norme devono essere chiare e solide nel tutelare i diritti fondamentali, sostenere nuove soluzioni innovative e consentire un ecosistema europeo di attori pubblici e privati che creino sistemi di IA in linea con i valori dell’Unione. Stabilendo tali regole nonché le misure a sostegno dell’innovazione, con particolare attenzione alle PMI e alle start-up, il regolamento contribuisce all’obiettivo di promuovere l’IA “Made in Europe” e all’obiettivo dell’Unione di essere un leader mondiale nello sviluppo di un’intelligenza artificiale sicura, affidabile ed etica, come affermato dal Consiglio europeo, e garantisce la tutela dei principi etici, come specificamente richiesto dal Parlamento europeo.
Il Regolamento AI ha un approccio basato sul rischio
Le norme seguono un approccio basato sul rischio (come già segnalato nella precedete proposta) e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l’IA può generare. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali).
Divieti su usi intrusivi e discriminatori dell’IA
I deputati hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’IA, come:
- l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
- l’uso di sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave;
- i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico);
- i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
- i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; e
- l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
I sistemi di IA fra le applicazioni ad alto rischio
I deputati europei vogliono che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente. Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).
Norme per i sistemi di IA generativa nel Regolamento europeo sull’Intelligenza Artificiale
I fornitori di modelli di base — uno sviluppo nuovo e in rapida evoluzione nel settore dell’IA — devono valutare e mitigare i possibili rischi (alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto) e registrare i loro modelli nella banca dati dell’UE prima della loro immissione sul mercato europeo. I sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, devono, quindi, rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento.
Sistemi evoluti di IA dotati di capacità di apprendimento automatico e deep learning
Particolare attenzione è dedicata a quei sistemi evoluti di IA spesso dotati di capacità di apprendimento automatico che consentono loro di adattarsi e di svolgere nuovi compiti in autonomia. L’apprendimento automatico si riferisce al processo computazionale di ottimizzazione dei parametri di un modello a partire dai dati, una costruzione matematica che genera un output basato su dati di input. Viene chiarito che gli approcci di apprendimento automatico comprendono, ad esempio, l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo e utilizzano una varietà di metodi, tra cui l’apprendimento profondo (deep learning) con reti neurali.
I nuovi rischi potenziali dei sistemi IA
Il regolamento mira ad affrontare i nuovi rischi potenziali che potrebbero sorgere delegando il controllo ai sistemi di IA, in particolare ai sistemi di IA che possono evolvere in seguito alla loro diffusione. La funzione e gli output di molti di questi sistemi di IA si basano su relazioni matematiche astratte che per gli esseri umani risultano difficili da comprendere e monitorare e i cui input specifici sono difficili da rintracciare.
Tali caratteristiche complesse e opache (elemento “scatola nera”) incidono sulla rendicontabilità e sulla spiegabilità. Tecniche comparabilmente più semplici, come gli approcci basati sulle conoscenze, le stime bayesiane o gli alberi decisionali, possono altresì comportare lacune giuridiche che sono affrontate dal regolamento, in particolare se usate in combinazione con gli approcci di apprendimento automatico nei sistemi ibridi.
Per stimolare l’innovazione nel campo dell’IA e sostenere le PMI, i deputati hanno previsto esenzioni per le attività di ricerca e le componenti dell’IA fornite con licenze open-source. La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’IA prima che venga implementata.
Inoltre, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio con un impatto significativo sui loro diritti fondamentali. I deputati hanno anche riformato il ruolo dell’Ufficio dell’UE per l’IA, che avrà il compito di monitorare l’attuazione delle norme sull’IA.
Articolo aggiornato il 15/07/2024

