“Benvenuti nell’era del nazionalismo dell’IA”: così l’Economist titola il 1° gennaio 2024, all’inizio di un anno in cui diversi paesi stanno cercando di delineare una propria strategia nazionale in tema di intelligenza artificiale. Con soluzioni diverse – composte da risorse, regole, incentivi, coinvolgimento del settore pubblico, variamente combinati fra loro – ma con obiettivi e responsabilità comuni: occupare un posto di prima fila per lo spettacolo globale più “glamour” del momento di cui è protagonista l’IA, game changer destinato a forgiare il futuro delle prossime generazioni, incidere sul destino tecnologico di regioni e paesi, guidare lo sviluppo di comunità e sistemi produttivi, economia e società.
D’altronde, come rileva il rapporto 2024 sull’IA generativa dell’Oliver Wyman Forum presentato a gennaio a Davos al World Economic Forum, “I leader delle aziende e del governo decideranno quanto dello sviluppo sarà open-source e trasparente rispetto a quello closed-source e proprietario. Le autorità di regolamentazione decideranno il ritmo e l’ampiezza dell’azione. I consumatori e i lavoratori avranno un ruolo centrale nell’adozione della tecnologia e contribuiranno a determinare la velocità dei benefici”.
INVESTIMENTI E GOVERNANCE. In vista dell’attuazione dell’AI Act da parte dell’UE e sullo sfondo della competizione tecnologica tra Stati Uniti e Cina, per ora sono le risorse economiche disponibili a fare la differenza. Regno Unito, Francia, Germania, India, Arabia Saudita ed Emirati Arabi Uniti sono intenzionati a impiegare oltre 40 miliardi di dollari per acquistare unità di elaborazione grafica (GPU, il microchip che serve per addestrare i modelli di IA), realizzare fabbriche per produrli e sostenere le aziende dell’IA. Mentre la Germania sta finanziando per un terzo i costi (33 miliardi di dollari) per la costruzione della nuova fabbrica di chip di Intel, il Regno Unito si avvia a destinare a IA e supercalcolo 1 miliardo di sterline in cinque anni, e il governo indiano è impegnato a promuovere la produzione di semiconduttori, spingendo i grandi fornitori di cloud computing a costruire data center in India, dove vengono formati i modelli di intelligenza artificiale.
Ma sono rilevanti anche regole e governance. Al riguardo, quello proposto dall’UE con l’AI Act rappresenta senza dubbio un modello di riferimento, anche se è presto per ritenere che in virtù dell’“effetto Bruxelles” diventerà uno standard internazionale, come è stato il regolamento del 2016 sulla protezione dei dati personali. Basato su divieti e una serie di prescrizioni graduate a seconda del rischio che i prodotti presentano, l’AI Act prevede trasparenza, requisiti di conformità, accountability e sanzioni in caso di violazioni. Insomma, molte regole, puntuali e dettagliate, pienamente applicabili due anni dopo la sua entrata in vigore, vale a dire dal 2026.
Leggi anche: The European AI act: mankind versus its own brainchild
All’AI Act europeo fa da contraltare il modello statunitense, più orientato al mercato e all’innovazione, caratterizzato da un approccio light touch in tema di regolamentazione e collaborativo con le Big Tech, esemplificato dall’executive order (EO) della Casa Bianca “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”, adottato il 30 ottobre 2023.
A esso ha fatto seguito, due giorni dopo, l’AI Safety Summit tenutosi a Bletchley (Londra), focalizzato sui profili di sicurezza e conclusosi con una dichiarazione ricca di indicazioni di principio ma di scarso impatto pratico, che evidenzia l’ambizione del Regno Unito di diventare a sua volta punto di riferimento internazionale per l’IA, senza peraltro discostarsi dall’approccio americano.
LA DICHIARAZIONE DI BLETCHLEY E IL MODELLO INGLESE. Il governo del Regno Unito era stato sollecitato da una commissione parlamentare ad accelerare l’impegno sulla governance dell’IA, visti i progressi compiuti da UE e Stati Uniti. Nel marzo 2023 era stato pubblicato un “libro bianco” sulla governance dell’IA incentrato su trasparenza ed equità.
A esso ha fatto seguito il consesso organizzato a Bletchley, a cui sono stati invitati anche Cina, Arabia Saudita e UE oltre a Brasile, Canada, India, Giappone, Emirati Arabi Uniti, ai principali paesi europei e alle organizzazioni internazionali. Le conclusioni del vertice evidenziano le preoccupazioni in settori come sicurezza informatica e biotecnologia e il timore che i sistemi di IA possano aumentare i rischi legati alla disinformazione. Di qui il sostegno a una rete internazionale di ricerca scientifica e la proposta di un approccio normativo proporzionato e pro-innovazione. Ciò include classificazioni e categorizzazioni dei rischi, con il richiamo ai soggetti privati che fanno ricerca avanzata a una maggiore trasparenza, l’adozione di parametri di valutazione adeguati e strumenti per test di sicurezza, formazione nel settore pubblico e incentivi alla ricerca scientifica.
A favore di tale approccio è intervenuto il Communications and Digital Committee della Camera dei Lord con il “First Report of Session 2023–24” in tema di Large language models and generative AI, pubblicato il 2 febbraio 2024, secondo cui il Regno Unito dovrebbe puntare su regole proporzionate per mantenere “flessibilità strategica” e proporsi come esempio a livello internazionale, investendo nello sviluppo di standard accreditati e metodi di verifica comuni. Questo per garantire un’innovazione responsabile, sostenere lo sforzo delle imprese e assicurare un’adeguata supervisione sull’IA.
L’EO DELLA CASA BIANCA. Fra gli otto principi guida dell’executive order emesso dalla Casa Bianca il 30 ottobre 2023 si segnalano nuovi standard per la sicurezza, la protezione di privacy, equità e diritti civili, la difesa dei consumatori. Parole chiave sono innovazione e concorrenza, per promuovere la leadership americana e garantire un uso responsabile ed efficace dell’IA da parte del governo. Alle agenzie federali viene affidato il compito di elaborare linee guida; si propone una carta dei diritti per una IA basata sul concetto di responsabilità, con misure per disciplinare le sue applicazioni.
Se l’EO è basato su precedenti linee guida sull’IA e sul quadro di gestione del rischio IA del National Institute for Standards in Technology (NIST), alcune delle sue proposte traggono spunto dalla regolamentazione globale esistente e in fieri, come l’AI Act dell’UE. L’EO fa seguito al rapporto finale del marzo 2021 della National Security Commission on Artificial Intelligence (NSCAI), commissione indipendente istituita nel 2018 per formulare raccomandazioni al presidente e al congresso e rispondere alle esigenze di sicurezza e difesa nazionale. Le conclusioni di quel rapporto erano allarmanti: evidenziavano con chiarezza il rischio per gli Stati Uniti di essere superati, nel giro di qualche anno, nella competizione con la Cina sull’IA, e l’urgenza di adottare una serie di misure e investimenti promuovendo una coalizione internazionale di paesi accomunati dagli stessi valori contro il tecnoautoritarismo e le cyberminacce.
Leggi anche: How foreign policy will have to change in the AI era
L’EO sancisce la piena mobilitazione del governo federale americano sul fronte dell’IA. In risposta all’allarme lanciato dal rapporto NSCAI del 2021, praticamente tutti i dipartimenti o agenzie federali vengono investiti di un compito specifico nel perseguimento degli otto obiettivi ivi indicati: esaminare l’uso delle tecnologie di IA nelle proprie aree di competenza per sviluppare linee guida in tempi rapidi (tutti inferiori a un anno), proporre interventi regolamentari o elaborare specifici rapporti. Obiettivo è estendere l’uso dell’IA nei processi decisionali, compresi gli standard per gli appalti e i finanziamenti da erogare.
La definizione di sistemi di IA contenuta nell’EO di Biden è ampia e non si limita all’IA generativa o ai sistemi che sfruttano le reti neurali: si tratta di “un sistema basato su macchine che può, per un dato insieme di obiettivi definiti dall’uomo, fare previsioni, raccomandazioni o decisioni che influenzano ambienti reali o virtuali”.
Al NIST viene attribuito il compito di sviluppare linee guida e pratiche operative per “sviluppare e implementare sistemi di IA sicuri e affidabili”. Diverse sono le iniziative chiave, tra cui l’elaborazione di principi etici, l’istituzione di un fondo per la ricerca e di un comitato consultivo nazionale sull’IA per formulare raccomandazioni sulle politiche in materia.
Nuovi standard per la sicurezza. L’EO impone agli sviluppatori di alcuni sistemi di IA di condividere i risultati dei loro test e le informazioni più critiche con il governo degli Stati Uniti. Ciò in base al Defense Production Act del 1950 (adottato al tempo della guerra in Corea), cui normalmente si ricorre in situazioni di emergenza nazionale o crisi produttiva: è avvenuto per esempio nel 2011 in occasione della crisi energetica in California, sotto la Presidenza Clinton, e nel 2021 per la produzione di vaccini contro il Covid-19, sotto la Presidenza Biden. Nel 2011 furono i crescenti timori di spionaggio da parte della Cina a indurre il Presidente, ai sensi del Defense Production Act, a obbligare le aziende di telecomunicazioni a riferire sui componenti hardware e software di provenienza estera. La sicurezza dei sistemi di IA deve essere garantita tramite gli standard previsti dal NIST, mentre il Dipartimento dell’Energia e quello della Sicurezza interna (Homeland Security) hanno il compito di intervenire in caso di minacce alle infrastrutture critiche.
Al NIST, dunque, viene affidato un ruolo guida nell’attuazione di molte indicazioni contenute nell’EO in tema di IA; e viene ripetutamente richiamato il quadro di gestione del rischio dell’IA elaborato dall’Istituto, le cui competenze si estendono anche alla valutazione dei rischi relativi ad attacchi alle infrastrutture di natura bio-chimica e nucleare, oltre che informatica. Deve altresì stabilire gli standard per i test sui modelli tesi a evidenziare le loro eventuali vulnerabilità, prima che gli stessi siano utilizzati. Lo stesso NIST nel 2019 aveva documentato, con uno studio su oltre 200 sistemi di riconoscimento facciale, le distorsioni in termini di pregiudizi razziali derivanti dai sistemi di riconoscimento facciale basati sull’IA.
LIMITI E RILEVANZA DELL’EO. Tuttavia, se è obbligatorio per le agenzie federali, l’EO non richiede che le società private che sviluppano sistemi di IA aderiscano agli standard NIST. Il punto delicato rimane, quindi, che “[…] molti aspetti dell’EO si basano sulla cooperazione volontaria delle aziende tecnologiche”, come rileva Anu Bradford, professore alla Columbia Law School. Le azioni e gli interventi previsti dall’EO riguardano infatti esclusivamente le autorità federali, concentrandosi sui programmi gestiti dalle agenzie, sui requisiti dei sistemi di IA forniti dal governo federale e sui profili attinenti alla sicurezza nazionale e alle infrastrutture critiche. Inoltre, in quanto Ordine esecutivo, non è fonte di nuove regole ma si limita ad avviare il processo per la loro adozione. A ciò si aggiunge che l’EO non ha il rango di una legge del Congresso ed è revocabile dal prossimo presidente degli Stati Uniti. Ciò non di meno, l’EO contiene indicazioni di grande rilevanza, come di seguito evidenziato.
Per esempio, contro il rischio di diffusione di notizie false, per fronteggiare i deepfake e la disinformazione, il dipartimento del Commercio viene investito del compito di sviluppare strumenti di etichettatura e filigrana per garantire l’autenticità dei contenuti generati dall’IA. Si tratta di un aspetto al quale l’EO attribuisce una particolare rilevanza in vista delle imminenti elezioni presidenziali, stante il rischio di interferenze nel regolare svolgimento della competizione elettorale suscettibili di condizionare l’opinione pubblica e alterare il corretto funzionamento del sistema democratico. Peraltro, già diverse agenzie governative adottano questi strumenti per assicurare ai cittadini che le comunicazioni provenienti dal governo siano autentiche e verificabili, in linea con l’impegno volontario assunto ad agosto 2023 con la Casa Bianca da imprese come Google e OpenAI.
In tema di riconoscibilità dei contenuti prodotti dall’intelligenza artificiale, anche l’AI Act dell’UE prevede che a determinati sistemi di IA siano imposti specifici obblighi di trasparenza. Per esempio, laddove esista un evidente rischio di manipolazione (come attraverso l’uso di chatbot), è previsto che gli utenti debbano essere consapevoli del fatto che stanno interagendo con una macchina.
Negli Stati Uniti è anche prevista la creazione di un National Security Memorandum, sotto la supervisione del National Security Council e del Capo dello Staff della Casa Bianca, per garantire un utilizzo corretto e sicuro dell’IA anche da parte delle forze militari e dei servizi segreti.
LA PROTEZIONE DELLA PRIVACY: L’INFLUENZA DELL’UE. L’EO sottolinea la necessità di una regolamentazione dell’IA ad alto rischio (come fa anche l’AI Act europeo) e – aspetto cruciale – riconosce lo stretto legame tra privacy e intelligenza artificiale. Nell’annunciare l’EO, Biden ha invitato il Congresso ad approvare una legislazione bipartisan in tema di protezione di dati personali che ponga l’accento sulla prevenzione, attraverso lo sviluppo di metodologie che tutelino i dati personali dei cittadini senza interferire con il processo di addestramento dei modelli IA.
In questo l’EO si allinea al principio di “Privacy by design” previsto dal regolamento europeo in materia di protezione dei dati personali (GDPR), secondo cui deve essere garantito un corretto livello di privacy e protezione dei dati personali fin dalla fase di progettazione (design) di qualunque sistema, servizio, prodotto o processo, così come durante il loro ciclo di vita.
Alla base di tali preoccupazioni sulla privacy vi è la consapevolezza delle ripetute violazioni dei diritti civili associate all’uso dell’IA e in particolare al processo decisionale automatizzato. Uno dei temi centrali è infatti il possibile verificarsi di bias cognitivi che possono – a prescindere dalla “non volontà” dell’IA – creare discriminazioni in settori essenziali quali giustizia, sanità ed edilizia residenziale. Al riguardo, l’EO ordina al procuratore generale di adottare misure volte ad attenuare i rischi di discriminazione algoritmica e le violazioni dei diritti civili derivanti dall’uso dell’IA, e alle agenzie federali di fornire al riguardo indicazioni ai soggetti che gestiscono ed erogano servizi pubblici.
Quanto alla commercializzazione dei dati che sono alla base del funzionamento dei sistemi di intelligenza artificiale, considerati una risorsa di crescente importanza economica, l’EO prevede un’approfondita analisi delle modalità con cui tali dati vengono immessi sul mercato. Tale processo di valutazione è volto a garantire che la loro commercializzazione sia rispettosa degli standard etici e giuridici, compresa la privacy dei cittadini.
In campo scolastico, si promuove lo sviluppo di strumenti di apprendimento tramite modelli di IA, ipotizzando per esempio lo sviluppo di tutor personalizzati per rispondere alle esigenze educative degli alunni.
INNOVAZIONE E CONCORRENZA. Nel quadro dell’executive order, il National AI Research Resource diventa lo strumento per consentire a ricercatori e studenti di accedere direttamente a risorse e dati, anche attraverso finanziamenti tesi a sviluppare metodologie di ricerca avanzate, in particolare nei settori della salute e del cambiamento climatico. Sono inoltre previste misure per mettere a disposizione di start-up e piccoli sviluppatori assistenza tecnica e risorse, incaricando la Federal Trade Commission di sostenere la commercializzazione delle invenzioni delle piccole imprese.
Il National Science Foundation viene incaricato di costituire almeno quattro nuovi istituti nazionali di ricerca sull’IA e coordinarsi con il dipartimento dell’Energia per migliorare i programmi di formazione degli scienziati dell’IA.
Si prevede anche di allentare le restrizioni in tema di immigrazione negli Stati Uniti per accogliere esperti stranieri per motivi di studio e lavoro, anche attraverso una modernizzazione dei criteri per l’ottenimento del visto. A tal fine l’EO chiede al dipartimento di Stato e al dipartimento per la Homeland Security (DHS) di semplificare le richieste di visto per i non cittadini che intendono recarsi negli Stati Uniti per lavorare, studiare o condurre ricerche nel campo dell’IA e dà istruzioni al DHS di modernizzare il processo di immigrazione per esperti di IA e altre tecnologie critiche ed emergenti. Si tratta di misure volte a migliorare la forza lavoro statunitense mediante l’innesto di persone qualificate e dotate di competenze specifiche in materia di intelligenza artificiale.
IL RUOLO DEL G7. La consapevolezza di affrontare una sfida globale comporta per gli Stati Uniti la necessità di intensificare la cooperazione internazionale con accordi bilaterali e multilaterali nel campo dell’IA, compito affidato al dipartimento di Stato in collaborazione con il dipartimento del Commercio. L’EO sollecita inoltre lo sviluppo accelerato di standard in tema di IA con partner internazionali coinvolgendo gli enti di standardizzazione.
Per quanto riguarda la formazione interna dell’amministrazione, l’EO prevede una formazione diretta per gli impiegati di ogni livello, accelerando anche l’assunzione di professionisti nel campo dell’IA, compiti affidati ai programmi US Digital Service, US Digital Corps e Presidential Innovation Fellowship.
Peraltro, lo stesso giorno in cui la Casa Bianca ha adottato l’EO, la presidenza giapponese del G7 ha promosso una Dichiarazione dei leader sul Processo di Hiroshima. Include il “Codice di condotta internazionale per le organizzazioni che sviluppano sistemi avanzati di IA”, contenente molti elementi presenti nell’EO. Il G7 ha affrontato il tema dell’IA sin dal 2016, quando i ministri per la Trasformazione digitale si sono incontrati per la prima volta ed è stata presentata una proposta di otto “linee guida per la ricerca e sviluppo sull’IA”, tra cui trasparenza, sicurezza e responsabilità. Ciò ha consentito l’avvio dell’elaborazione dei principi sull’IA che sono stati adottati dall’OCSE e poi ripresi dal G20 nel 2019, sotto la presidenza giapponese. In tutto, 50 paesi hanno aderito a questi principi che rappresentano un approccio internazionale comune alla governance dell’IA.
Da allora il dialogo in materia è continuato in seno al G7 sotto ogni successiva presidenza e ha portato alla creazione del Partenariato globale sull’IA nel 2020, guidato da Canada e Francia, e del Forum globale sulla Tecnologia del Regno Unito nel 2021, che oltre all’IA ha riguardato anche tecnologie emergenti come l’informatica quantistica e la biologia sintetica.
Ora tocca all’Italia, che ha assunto la presidenza del G7, il delicato e importante compito di proseguire l’opera avviata, così da portare avanti il dialogo per creare un consensus globale sui principi guida dell’intelligenza artificiale.
*Questo articolo è pubblicato sul numero 1-2024 di Aspenia