L’Europa in ritardo sull’AI: politica industriale e diritti

Dal numero 94 di Aspenia

Nell’aprile 2016, la Commissione europea approvava l’innovativo General Data Protection Regulation (GDPR), un regolamento per normare il trattamento dei dati personali e garantire la privacy dei propri cittadini, salvaguardando il ruolo dell’Unione Europea quale standard setter della nuova economia digitale. A cinque anni di distanza, Bruxelles si trova ad affrontare una ben più ambiziosa sfida regolatoria: plasmare una nuova legislazione sull’intelligenza artificiale (IA), per sostenere l’innovazione in un settore tecnologico strategico che vede l’Europa in grave ritardo rispetto agli Stati Uniti e alla Cina, e allo stesso tempo tutelare la sicurezza e i diritti individuali degli europei nella nuova era delle macchine. Ad aprile di quest’anno, la Commissione ha così pubblicato la bozza di un Artificial Intelligence Act (AIA), una proposta di regulation per normare lo sviluppo, la messa sul mercato e l’utilizzo di prodotti basati sull’IA.

Thierry Breton, Commissario UE per il Mercato Interno e i Servizi

 

LA STRATEGIA REGOLATORIA. La proposta della Commissione non è stata un fulmine a ciel sereno, ma si inserisce all’interno di un percorso di elaborazione normativa e di convergenze progressive tra i paesi membri, dettato dalle pressioni competitive del mercato globale della tecnologia. Secondo un recente rapporto della Banca europea degli Investimenti, esiste nell’UE un investment gap di 10 miliardi di euro nell’ambito delle tecnologie dell’IA e della blockchain. L’80% degli investimenti annuali globali in queste tecnologie disruptive si concentra in Stati Uniti e Cina, mentre l’Europa investe solamente il 7% del totale, circa 1,75 miliardi di euro all’anno. In controtendenza rispetto ai dati sugli investimenti, l’Europa detiene invece il più alto numero di ricercatori in IA, circa 43.064, includendo anche il Regno Unito, rispetto ai 28.536 degli Stati Uniti – i cui articoli scientifici sono però i più citati – e i 18.232 della Cina – che produce più pubblicazioni in assoluto[1].

 

Leggi anche: La sfida della tecnologia tra Stati Uniti ed Europa

 

È difficile pensare che il ritardo europeo sul fronte dell’IA possa essere colmato sul breve termine. Anche per questo, Bruxelles ha cercato di spostare il terreno della competizione, enfatizzando l’importanza dell’affidabilità e della fiducia di una tecnologia dal volto umano, allineata ai valori e ai diritti fondamentali dell’individuo. Nell’aprile 2019, l’UE ha pubblicato “le Linee Guida etiche per un’IA affidabile”, messe a punto da un panel di esperti dei paesi membri; a queste è seguito, alla fine dello stesso anno, il Rapporto della Commissione europea sulla responsabilità per l’intelligenza artificiale e altre tecnologie emergenti. L’impostazione concettuale e le linee guida tracciate in questi documenti sono convogliate nel Libro Bianco dell’Intelligenza Artificiale, aperto a una consultazione pubblica all’inizio dello scorso anno, gettando le fondamenta delle nuove regole europee.

L’AIA parte da una premessa innovativa: un approccio all’IA basato sul rischio e strutturato su diversi livelli, a seconda delle potenziali ricadute della tecnologia sulla sicurezza delle persone. Alcuni utilizzi dell’IA, ad esempio, sono banditi in toto, perché considerati lesivi della dignità umana: tra questi rientrano l’utilizzo di sistemi di social scoring, l’analisi biometrica in tempo reale in luoghi pubblici e l’uso di algoritmi per condizionare in modo subliminale e dannoso il comportamento online. La categorizzazione più interessante, soprattutto dal punto di vista delle sue ricadute industriali, riguarda però i cosiddetti sistemi di IA ad alto rischio, tra i quali rientrano le tecnologie più disparate, dai software per le infrastrutture pubbliche, come ad esempio quelli utilizzati per la gestione del traffico urbano e della rete elettrica, alle soluzioni di IA in ambito medico, fino ai sistemi di supporto alle decisioni utilizzati nell’ambito della giustizia e delle politiche sociali. L’AIA consente la commercializzazione di queste soluzioni IA, ma le sottopone a una rigida serie di controlli ex ante prima che possano essere immesse sul mercato. In particolare, i fornitori sono tenuti a effettuare una valutazione di conformità atta a garantire un sufficiente livello di trasparenza e sicurezza di tutte le tecnologie considerate ad alto rischio. Oltretutto, questi sistemi di IA devono essere progettati in modo da garantire sempre un appropriato livello di supervisione umana e di responsabilizzazione, in modo da potere tracciare chiaramente e verificare come e perché una determinata decisione è stata assunta. Il regolamento europeo riconosce infine i sistemi di IA a basso rischio che, per loro natura, sono sottoposti a un regolamento meno stringente.

A supervisionare il corretto funzionamento del nuovo regolamento sull’IA, nella proposta della Commissione europea, vi sarebbe l’European Artificial Intelligence Board, costituito da rappresentanti dei paesi membri, con l’obiettivo di offrire assistenza e consulenza alla Commissione e alle diverse autorità nazionali deputate all’applicazione delle norme. Analogamente al GDPR, la proposta di regolamento europeo sull’IA verrebbe applicata non soltanto ai produttori europei, ma anche a tutte quegli attori che mettono in commercio o utilizzano i dati in uscita da sistemi ia presenti in Europa. Per le aziende che trasgrediscono al nuovo codice, sarebbero previste sanzioni pecuniarie fino a 30 milioni di euro o al 6% del loro fatturato annuo globale, similmente a quanto previsto dal GDPR. Quest’estate Amazon si è vista comminare una multa di 750 milioni di euro dalla Commissione per violazioni alla normativa europea sui dati persone.

 

TRA POLITICA INDUSTRIALE E DIRITTI. Il principale argomento a favore della proposta legislativa europea sull’IA è il seguente: introducendo per prima un sistema di regolamentazione per limitare i rischi legati all’IA, nel quadro di una nuova etica delle macchine, e sfruttando il peso del proprio mercato interno, Bruxelles spera di condizionare gli standard del mercato globale della tecnologia, incrementando il soft power e la capacità di proiezione commerciale delle proprie aziende, e influenzando le strategie di quelle statunitensi e cinesi. Le grandi multinazionali, anche quelle del digitale, tendono spesso ad aderire ai più rigidi dettami europei per evitare di incappare nei costi derivati dal dover conformarsi a differenti regimi regolatori. Si tratta della stessa logica che ispira il GDPR. Sulla scorta delle norme europee, durante l’estate Pechino ha deciso di introdurre leggi più rigide sulla privacy dei propri cittadini per arginare il crescente potere dei colossi digitali e introducendo requisiti più stringenti per la gestione dei dati personali da parte delle imprese. Naturalmente, il caso cinese è un caso di predominio statale da parte di un regime che usa la quantità di dati personali anche per scopi di controllo politico.

 

Leggi anche: Cosa sono davvero i Big Tech

 

La competitività dell’Europa si gioca sul sottile equilibrio tra la capacità di innovare e quella di costruire fiducia diffusa nello sviluppo tecnologico. La proposta di regolamento della Commissione europea intercetta, infatti, una domanda crescente per una maggiore trasparenza e controllo sugli automatismi dell’IA che proviene non soltanto da gruppi organizzati di advocacy, ma anche dai consumatori. Secondo uno studio Capgemini, già prima della pandemia il 62% dei consumatori aveva mostrato di preferire le aziende che aderiscono a chiari valori etici nel loro utilizzo dell’IA mentre il 33% aveva dichiarato che avrebbe interrotto qualsiasi contatto con gli operatori percepiti come senza scrupoli nel loro approccio alla tecnologia. Nella visione di Bruxelles, la fiducia dei consumatori può rappresentare il volano del catch up tecnologico, anche perché i margini da sfruttare sono ampi: sebbene un numero crescente di aziende si affidino all’IA per l’ottimizzazione dei propri prodotti e processi, quasi la metà di esse non si cura di controllare i potenziali bias e problemi di equità della tecnologia che utilizzano[2].

Se il caso del GDPR può essere di qualche esempio, i contraccolpi dell’Artificial Intelligence Act per il mercato globale dell’intelligenza artificiale, che nel 2026 potrebbe raggiungere un valore totale di 300 miliardi di dollari, saranno rilevanti. Non è quindi un caso che i giganti dell’economia digitale d’oltreoceano si siano da subito preoccupati della propria posizione sul mercato europeo. Il Center for Data Innovation – parte di una fondazione finanziata da aziende come Apple, Facebook, Google, Nvidia e Oracle, tra le altre – ha messo in evidenza gli elevati costi che la nuova legge sull’IA andrebbe a imporre alle aziende e ai consumatori del vecchio continente. Il centro di ricerca statunitense stima che i costi della compliance introdotta dall’AIA costeranno al business europeo più di 10 miliardi di euro l’anno entro il 2025, circa 31 miliardi in totale nei prossimi cinque anni, riducendo gli investimenti in questa tecnologia di circa il 20%. Una piccola media azienda con un giro d’affari di 10 milioni di euro l’anno potrebbe incappare in costi di compliance pari a 400.000 euro nel caso in cui adottasse sistemi di IA ad alto rischio[3].

 

I RISCHI DI UN’ECCESSIVA RIGIDITÀ. La Commissione europea ha contestato la veridicità di questi dati, giudicando il rapporto prevenuto; ma la presa di posizione di Bruxelles non fuga tutti i dubbi. L’approccio europeo è un caso da manuale di governance upstream dell’intelligenza artificiale, che richiede una pianificazione attenta e un costante monitoraggio prima che questa tecnologia possa essere immessa sul mercato. I critici di questa impostazione ne denunciano, però, la rigidità e sottolineano i potenziali rischi per l’ecosistema dell’innovazione europeo: in particolare per le piccole e medie aziende, che si troverebbero gravate di alti costi iniziali e notevoli barriere burocratiche all’accesso al mercato dell’IA. Si tratta di un ostacolo notevole per l’ecosistema delle start-up europee, già in ritardo rispetto ai concorrenti. Tra le dieci start-up con la più alta valutazione al mondo, tra cui la cinese Bytedance e la Space X di Elon Musk, nessuna è europea. Nei passati cinque anni, l’Europa ha investito in totale poco meno di 100 miliardi di dollari in venture capital, più o meno quanto gli Stati Uniti e la Cina investono in un anno[4]. La Commissione europea sembra cosciente di queste strozzature: l’articolo 53 dell’AIA prevede la possibilità per gli Stati membri di creare dei sandbox regolamentari, consentendo alle imprese innovative di testare i propri sistemi di intelligenza artificiale in un ambiente protetto e controllato prima che queste siano immesse nel mercato.

La proposta della Commissione europea per regolamentare l’IA rappresenta solamente il primo passo di un lungo iter legislativo in seno alle istituzioni comunitarie che potrebbe portare a modifiche, anche sostanziali, del testo. Nel caso del GDPR, ci sono voluti circa quattro anni dalla prima presentazione del regolamento alla sua adozione ufficiale. L’Artificial Intelligence Act rappresenta, del resto, un testo perfettibile, che ha attirato le critiche di tecnoentusiasti e di imprenditori ma anche di associazioni di tutela dei consumatori, che hanno messo in luce la mancanza di meccanismi di reclamo e ricorso giudiziario per i comuni cittadini. In ogni caso, la strada tracciata a Bruxelles è chiara: bilanciare le esigenze dello sviluppo tecnologico, inteso come elemento strategico della contesa geopolitica, con la salvaguardia dei diritti dei cittadini europei. Cosa non facile, tuttavia.

 

 


Note:

[1] Commissione europea e Banca europea d’investimenti, Artificial intelligence, blockchain and the future of Europe: how disruptive technologies create opportunities for a green and digital economy, Lussemburgo, 2021.

[2] Capgemini Research Institute, Why addressing ethical questions in ai will benefit organizations, 2019; Mike Loudikes, ai adoption in the enterprise 2021, O’Reilly Media, aprile 2021.

[3] Benjamin Mueller, How much will the Artificial Intelligence Act cost Europe?, Center for Data Innovation, luglio 2021.

[4] Fabian von Heimburg, “Europe needs to learn from Asia to stop falling behind in Tech”, World Economic Forum, marzo 2021.

 

 


Questo articolo è stato pubblicato sul numero 94 di Aspenia

 

 

politicsEuropetechnologyEUcivil rightsdigitalAIEuropean Commissioncybersecurity
Comments (0)
Add Comment