Il Codice degli appalti apre la via all’automazione con Intelligenza Artificiale
L’articolo 30 del decreto legislativo n. 36 del 31 marzo 2023 (Codice dei contratti pubblici) introduce per la prima volta nell’ordinamento italiano una disciplina organica dell’impiego di procedure algoritmiche in ciascuna fase del ciclo di vita dei contratti pubblici, dalla programmazione al collaudo finale. L’applicazione della norma trova nel Regolamento del Parlamento Europeo e del Consiglio n. 1689 del 13 giugno 2024, il cd. AI Act, la cornice concettuale e operativa per gestire l’intelligenza artificiale (IA) preservando i valori costituzionali alla base del corretto funzionamento degli appalti.
Intelligenza Artificiale: definizione e rapporto con gli appalti
Secondo l’art. 3, par. 1, n. 1, del Regolamento, si intende per IA “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
La disposizione del Codice dei contratti pubblici che prescrive alle Stazioni Appaltanti di adottare, “ove possibile”, soluzioni per automatizzare le proprie attività mediante soluzioni tecnologiche, incluse quelle di intelligenza artificiale, indica anche le garanzie da fornire per la trasparenza dei processi, prescrivendo un controllo umano significativo sulla qualità dei dati e sul divieto di discriminazione algoritmica, cioè prodotta da “un procedimento di calcolo esplicito e descrivibile con un numero finito di regole che conduce al risultato dopo un numero finito di operazioni, cioè di applicazioni delle regole” (algoritmo, Vocabolario Treccani online).
Sul piano giuridico, l’algoritmo è un atto amministrativo informatico che deve garantire:
- la piena conoscibilità a monte del modulo utilizzato e dei criteri applicati;
- l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo.
Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente sul processo automatizzato (principio di non esclusività della decisione algoritmica, art. 22 del Regolamento europeo n. 1689).
La scelta della Stazione Appaltante
Il primo passo è un’analisi di fattibilità tecnica, economica e giuridica, da parte dell’Amministrazione Pubblica, per verificare che l’impiego di IA sia sostenibile, proporzionato e rispettoso di neutralità tecnologica, sicurezza informatica e protezione dei dati personali. Sebbene l’uso di tecnologie digitali, compresa l’IA, non sia obbligatorio, la gestione interamente manuale dei procedimenti diventa un’eccezione da motivare nell’ambito della discrezionalità delle stazioni appaltanti, in mancanza della quale potrebbero sorgere contestazioni per eccesso di potere e carenza di istruttoria. D’altra parte, l’IA può essere fattore innovativo di efficienza, trasparenza e resilienza, soprattutto nella fase istruttoria, in particolare nella valutazione delle offerte tecniche, se si realizzano specifiche condizioni.
La giustizia amministrativa sta elaborando un indirizzo interpretativo sulla libertà di scelta delle stazioni appaltanti: mentre ribadisce che “la discrezionalità amministrativa […] non può essere demandata al software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale” (Consiglio di Stato, sez. VI, n. 2270, dell’8 aprile 2019), ammette che “se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla cd. attività vincolata, nulla vieta che i medesimi fini, perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità” (Consiglio di Stato, n. 8472, sez. VI, del 13 dicembre 2019).
La valutazione di impatto
Una modalità preventiva di valutazione tesa a qualificare/quantificare l’impatto del sistema di intelligenza artificiale, è la valutazione di impatto, basata su un “piano dettagliato” che descriva, tra l’altro, le misure e gli strumenti finalizzati all’attenuazione dei rischi e che raccolga le informazioni pertinenti ritenute necessarie.
La valutazione di impatto deve contenere, secondo l’art. 29-bis dell’AI Act:
- una chiara descrizione della finalità prevista per la quale verrà utilizzato il sistema;
- una chiara descrizione dell’ambito geografico e temporale previsto per l’uso del sistema;
- le categorie di persone fisiche e gruppi verosimilmente interessati dall’uso del sistema;
- la verifica che l’uso del sistema è conforme al diritto dell’Unione e nazionale in materia di diritti fondamentali;
- l’impatto ragionevolmente prevedibile sui diritti fondamentali di mettere in servizio il sistema di IA ad alto rischio;
- determinati rischi di danno suscettibili di incidere sulle persone emarginate e sui gruppi vulnerabili;
- l’impatto negativo ragionevolmente prevedibile dell’utilizzo del sistema sull’ambiente;
- un piano dettagliato su come saranno attenuati i danni o l’impatto negativo sui diritti fondamentali individuati;
- il sistema di governance che sarà messo in atto dall’operatore.
L’acquisto di sistemi IA
Il secondo passo è la procedura di acquisto o sviluppo di soluzioni automatizzate, con due obblighi complementari:
- la disponibilità del codice sorgente, della documentazione tecnica e di ogni elemento indispensabile a comprendere la logica di funzionamento dell’algoritmo, che deve rispettare dei tre principi etici dell’automazione:
- conoscibilità;
- supervisione umana;
- non discriminazione;
- l’obbligo del fornitore di assicurare assistenza, manutenzione correttiva ed evolutiva a lungo termine, chiarendo tempi di risposta e responsabilità in caso di anomalie.
I capitolati di acquisto devono considerare l’intero ciclo di vita del “prodotto-servizio” IA, con clausole per l’aggiornamento continuo, l’interoperabilità, la formazione certificata per RUP, direttori dell’esecuzione e commissari di gara, metodologie di monitoraggio e auditing. Nei contratti ICT superiori a 500.000 euro, l’allegato II.14 del Codice impone la nomina di un direttore dell’esecuzione indipendente dal RUP, a garanzia di maggiore specializzazione tecnica.
Conoscibilità e comprensibilità dei processi automatizzati
La stazione appaltante deve garantire che ogni operatore partecipante a una procedura di gara sappia se sta interagendo con un algoritmo e, in caso affermativo, ricevere spiegazioni significative.
Un altro strumento per la trasparenza è il registro pubblico con l’elenco di tutte le soluzioni automatizzate in uso, indicandone finalità, fornitore, versione e data dell’ultimo audit. Il registro consentirà ai portatori di interesse e agli organismi di vigilanza (ANAC, AGID, Garante Privacy) di incrociare i dati con le rispettive banche informative, generando un sistema responsabilità sociale.
Appalti e Intelligenza Artificiale: la supervisione umana
Oltre alla preventiva certificazione del sistema di IA, i requisiti relativi alla governance dei dati possono essere soddisfatti attraverso un efficace contributo umano “capace di controllare, validare ovvero smentire la decisione automatizzata” (apprendimento supervisionato). La supervisione deve perciò essere condotta da un funzionario esperto in grado di confermare, correggere o annullare il responso automatico, grazie al possesso di “un livello sufficiente di alfabetizzazione in materia di IA conformemente all’articolo 4-ter [del Regolamento europeo n. 1689] nonché del sostegno e dell’autorità necessari per esercitare tale funzione, durante il periodo in cui il sistema di IA è in uso e per consentire indagini approfondite a seguito di un incidente”.
Qualità dei dati e affidabilità degli algoritmi
Il grado di autonomia di azione dei sistemi IA rispetto ai controlli umani e la loro capacità di funzionare senza l’intervento umano, ammesso dall’AI Act europeo, deve essere comunque condizionato e orientato da un ambiente adeguato sia oggettivamente (qualità dei dati) sia soggettivamente (formazione dei funzionari).
Per evitare rischi di discriminazione, la stazione appaltante deve adottare “ogni misura tecnica e organizzativa atta a garantire che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori”, adeguando le tecnologie alle diverse esigenze di micro-imprese, PMI e grandi aziende, mantenendo criteri di pari opportunità e controllando eventuali divergenze di punteggi fra categorie omogenee di operatori. I risultati dell’intera procedura devono essere resi pubblici tramite rapporti di auditing periodici.
Le Amministrazioni sono tenute a rettificare sistematicamente i fattori che generano inesattezze e a minimizzare il rischio di errore, impedendo discriminazioni verso persone fisiche basate su caratteristiche sensibili. Un possibile percorso è l’integrazione progressiva con la Piattaforma Digitale Nazionale Dati (Pdnd), che sincronizzerà il Fascicolo Virtuale dell’Operatore Economico con i registri camerali e fiscali, riducendo il numero di falsi positivi.
Attività ad alto rischio e sistemi deep learning
Il legislatore europeo ha vietato, per le attività ad alto rischio, l’uso di quei sistemi di IA con capacità di apprendimento profondo (cd. deep learning) senza supporto umano, che utilizzano modelli matematici ispirati alle reti neurali biologiche.
Per il Regolamento europeo (art. 6, Allegato III), gli appalti pubblici non sono qualificabili di per sé come un settore ad alto rischio. Tuttavia può essere considerata ad alto rischio un’attività valutativa effettuata da un’amministrazione, o da un organo amministrativo, sui fatti e/o disposizioni normative, attraverso sistemi di intelligenza artificiale.
Un appalto potrebbe rientrare in questa categoria se riguardasse settori che l’Unione Europea ha già identificato come ad “alto rischio”, come, ad esempio:
- attività legate alla gestione e al funzionamento delle infrastrutture critiche;
- accesso a servizi pubblici essenziali;
- fornitura di risorse fondamentali (come acqua, gas, elettricità e infrastrutture digitali);
- attività e valutazioni in materia di istruzione e formazione professionale, gestione dei lavoratori e accesso al lavoro;
- attività e decisioni in materia di migrazione, asilo e gestione delle frontiere.
Aree di sperimentazione dell’Intelligenza Artificiale negli appalti
Rispettando le condizioni e i requisiti richiesti dall’art. 30 Codice dei contratti pubblici e dal Regolamento europeo n. 1689, l’Intelligenza Artificiale potrebbe avere interessanti applicazioni in alcune aree della gestione degli appalti, quali:
- analisi predittiva per analizzare i dati storici degli appalti pubblici e fare previsioni sul comportamento futuro del mercato, fornendo indicazioni per la migliore configurazione della gara, per la fissazione della base d’asta, ecc.;
- rating dei potenziali fornitori, a seguito di elaborazioni dei dati presenti nelle banche dati di settore;
- analisi automatica delle offerte in un processo di gara, valutandole in base a parametri predefiniti;
- valutazione della qualità delle offerte, attraverso modelli predittivi e analisi avanzate dei dati;
- valutazione dell’offerta anomala/remuneratività dell’offerta, sulla base dei dati di mercato;
- verifiche di conformità, controlli sull’andamento dell’esecuzione e controllo dell’andamento dell’equilibrio del contratto, sulla base dei dati economici;
- rilevazione di frodi nelle offerte o nelle transazioni finanziarie;
- ottimizzazione delle risorse durante l’esecuzione di un contratto, monitorando in tempo reale i progressi e i costi;
- verifica automatica della conformità dei documenti richiesti nelle gare d’appalto.
Anche negli appalti pubblici, il futuro è già cominciato.

