Quantificare l’impatto dell’Intelligenza Artificiale (AI) sul sistema economico e sociale è un compito non semplice, alla luce delle numerose variabili in gioco, dalla varietà di discipline e sistemi coinvolti all’ampiezza di settori e campi di applicazione. L’opportunità di investire in soluzioni aziendali basate sull’AI acquista un’importanza notevole non soltanto nell’ottica di identificare e soddisfare i bisogni interni all’impresa, ma anche e soprattutto nell’individuare nuovi servizi a valore aggiunto da proporre ai consumatori finali. Inoltre, l’impatto positivo si concentrerebbe sulla produttività del lavoro, con un ampliamento delle opportunità per i lavoratori maggiormente qualificati e specializzati.
Entro il 2030[1], l’AI potrebbe determinare un aumento dell’attività economica globale di circa 13 trilioni di dollari, con una crescita di circa 1,2% del PIL all’anno. Se tale previsione dovesse essere confermata, si tratterebbe di un impatto comparabile con quello generato dal motore a vapore nel 1800, dall’automazione introdotta dai robot nella produzione industriale negli anni ’90, e dalla diffusione delle tecnologie informatiche e delle telecomunicazioni negli anni 2000. In questo scenario, le tecnologie AI rivelano un potenziale “disruptive” in senso positivo, chi è in chiave di sviluppo di nuove opportunità. Certo, alcune preoccupazioni sono più che giustificate, se si guarda alle stime per cui profili professionali caratterizzati da attività ripetitive o che richiedono un basso livello di competenze digitali potrebbero sperimentare il più grande declino come percentuale dell’occupazione totale scendendo al 30% entro il 2030, dal 40% attuale.
L’incremento maggiore potrebbe essere in attività non continue e quelle che richiedono elevate competenze digitali, passando da circa il 40% a oltre il 50%, con l’AI che contribuirà per 15,7 trilioni di dollari[2] al PIL mondiale entro il 2030, cambiando alla radice il nostro modo di usare i mezzi di trasporto e persino il nostro modo di lavorare. Oltre il 40% di questo contributo riguarderà i due paesi, USA e Cina, maggiormente coinvolti nelle attività di R&D nel settore, all’insegna di una vera e propria battaglia all’interno di una più ampia contesa commerciale e geopolitica.
Un modello europeo emergente
In tutto ciò, qual è il ruolo di un’Europa che arriva in ritardo nella corsa e che sta affannosamente tentando di recuperare il tempo perduto? Sono 20 miliardi di euro gli investimenti previsti dall’UE nel settore pubblico e privato entro la fine del 2020. La Commissione sta aumentando i propri investimenti fino a 1,5 miliardi per il periodo 2018-2020 nel quadro del programma di ricerca e innovazione Horizon 2020[3], il 70% in più rispetto al periodo 2014-2017. Per il prossimo bilancio UE a lungo termine (2021-2027), l’idea è di portare l’investimento a 7 miliardi di euro. Si prevede che il finanziamento mobiliterà altri 2,5 miliardi dei partenariati pubblico-privato esistenti, fornendo sostegno allo sviluppo dell’intelligenza artificiale nei settori principali, dai trasporti alla sanità, e metterà in contatto e rafforzerà i centri di ricerca europei, incentivando la sperimentazione.
L’approccio dell’UE si differenzia dagli altri, poiché considera lo sviluppo e l’utilizzo dell’Intelligenza Artificiale non un obiettivo di per sé, ma un mezzo per aumentare il benessere individuale e sociale. L’obiettivo, quindi, è quello di ottenere un’Intelligenza Artificiale “etica”, affidabile e rispettosa dei diritti della persona, poiché gli esseri umani saranno in grado di beneficiare appieno e con sicurezza dei suoi vantaggi solo se potranno fidarsi di questa tecnologia.
A livello normativo, l’impianto del regolamento generale sulla protezione dei dati (GDPR, General Data Protection Regulation, Regolamento UE n. 679/2016 in vigore dal maggio 2018) rappresenta uno dei pilastri di questa strategia ed è diventato un modello di riferimento a livello internazionale. Tuttavia, vista la contemporanea presenza di altre direttive europee in tema di dati, appare ora necessaria un’armonizzazione e un bilanciamento del quadro generale di riferimento, in modo tale da non ostacolare l’innovazione e non appesantire lo sviluppo di iniziative private e pubbliche, tenendo conto anche del ritardo e dei minori investimenti che hanno caratterizzato fin qui la strategia europea. Al contempo però questo approccio sembra trovare oggi maggiore sostegno rispetto al passato negli Stati Uniti. Il caso recente della California[4], in cui viene ipotizzato una sorta di “data dividend” in favore degli utenti che forniscono i dati, apre la strada a una riflessione più ampia, almeno in quello che una volta era definito il mondo occidentale, per cercare di combinare innovazione, sviluppo economico e benessere sociale.
Le scelte europee su AI, accesso e condivisione dei dati
Nel dibattito attuale, a partire dall’Europa, sta emergendo, oltre al concetto di “AI etica”, anche quello di “AI trasparente” che si contrappone alla “scatola nera” che nasconde l’utilizzo che si fa dei dati. Sarà questo uno dei principali obiettivi delle policy pubbliche e una delle criticità da superare per il successo dell’AI, vista ancora spesso come pericolo piuttosto che come opportunità, e che ha dunque bisogno di accreditarsi e guadagnarsi sempre più la fiducia dell’opinione pubblica. A questo aspetto si richiama anche la cosiddetta “trasparenza dell’algoritmo”, che viene spesso reclamata anche nel settore privato. Una delle possibili strade da seguire è quella indicata dal citato Regolamento GDPR, che offre ai cittadini una forma di protezione nei confronti di decisioni “con valenza legale e non solo” adottate in autonomia da macchine, che hanno un impatto sulle loro vite.
In particolare, dalla protezione dei dati deriveranno cambiamenti profondi in merito alla progettazione dei dispositivi e delle piattaforme. Nel 2018, il GDPR ha iniziato a modificare radicalmente il modo in cui le aziende gestiscono i dati degli utenti. Nel 2019 e negli anni a venire, il Regolamento UE sarà infatti sempre più il modello di riferimento. I progettisti e gli sviluppatori di prodotti stanno valutando come possono offrire sia la massima protezione che la massima personalizzazione. Inoltre, aderire a privacy policy adeguate apre la strada a maggiori possibilità di raccolta dati trasparente e apprendimento automatico.
In una sorta di circolo virtuoso, l’AI a sua volta potrà supportare le aziende nell’attuare soluzioni di gestione dei dati automatizzate e basate sui risultati, necessarie per consentire loro di affrontare queste sfide se sperano di implementare politiche di riservatezza dei dati forti senza sacrificare produttività e agilità. Questa tendenza emerge anche dalle recenti linee guida pubblicate dalla “Convenzione 108”, il Comitato del Consiglio d’Europa sulla protezione dei dati, istituita dall’UE nel 2006, e poi adottata in tutto il mondo per sensibilizzare gli utenti sulla protezione delle proprie informazioni personali online.
Il documento, che individua nel complesso 27 linee guida (6 generali, 12 rivolte a sviluppatori e operatori, 9 ai legislatori), evidenzia che lo sviluppo dell’AI deve obbedire a principi e criteri basati sulla “dignità umana e volti alla salvaguardia dei diritti umani e delle libertà fondamentali” senza contraddire i principi di “legalità, correttezza, indicazione di scopi precisi, proporzionalità, privacy by design, responsabilità, trasparenza, sicurezza dei dati e gestione dei rischi”.
Un numero sempre crescente di cittadini europei coglie infatti ogni giorno i benefici dell’AI, con progressi senza precedenti in una vasta gamma di settori, dai trasporti all’assistenza sanitaria, alla produttività industriale e la logistica. Allo stesso tempo però, cresce la preoccupazione dell’opinione pubblica riguardo le implicazioni in senso più ampio dell’uso e del possibile abuso dell’elaborazione automatica dei dati per gli individui, per la comunità e per le imprese.
La Presidenza del Consiglio dell’UE ha preparato un progetto[5] nel febbraio 2019, sviluppato in 11 punti chiave, di conclusioni del Consiglio relative al piano coordinato sullo sviluppo e l’utilizzo di una “AI Made in Europe“. Aumento degli investimenti, applicazione dell’AI in tutti i settori dell’economia, rispetto della privacy, e introduzione di un codice etico che diventi un vantaggio competitivo per l’industria europea, sono solo alcuni dei cardini contenuti nelle conclusioni del Consiglio. Fulcro della questione è infatti l’”ethics by design“, in base al quale i principi etici saranno incorporati nei prodotti e nei servizi AI fin dal principio, nel processo di progettazione.
Un criterio di fondo è la tutela di quelle persone che potrebbero essere inconsapevoli dei pericoli insiti nello sfruttamento di questi dati. I sistemi basati sui dati sono progettati per ottenere continuamente soluzioni ottimali all’interno dei parametri specificati dai loro sviluppatori. Quando operano su larga scala però tali processi di ottimizzazione inevitabilmente tendono a privilegiare determinati valori rispetto ad altri, modellando così contesti e ambienti in cui individui, utenti e non utenti elaborano le informazioni e prendono le proprie decisioni. Dinnanzi ai modi nuovi in cui si costruisce l’identità individuale nella società della conoscenza, che manifesta una crescente dipendenza dalle altre persone e dall’ambiente di vita esterno, l’Unione Europea ha scelto pertanto di rafforzare la dimensione individuale della tutela dei dati personali.
Al contempo, continua a prendere forma una rinnovata dimensione collettiva della tutela dei dati personali, con particolare riguardo agli impatti etici e sociali dell’uso dei dati, in particolare nella nuova dimensione legata all’AI, con uno sguardo all’information privacy e fornendo una disciplina più efficace per la protezione dell’individuo e un più efficiente sviluppo del Digital Single Market.
Lo sviluppo di un Digital Single Market e la diffusione di servizi digitali richiedono la fiducia degli utenti online. Per rafforzare questa fiducia, è necessario garantire un elevato livello di privacy e protezione dei dati personali. La relazione tra AI e GDPR è multidimensionale. Da un lato, l’AI può efficacemente aiutare a rilevare le violazioni del GDPR. Dall’altro, diversi elementi del GDPR mettono in discussione l’uso efficace dell’AI.
Il principio della trasparenza alla luce del GDPR impone che le informazioni destinate al pubblico o all’interessato siano facilmente accessibili e che sia utilizzato un linguaggio semplice, il che è spesso problematico quando si ha a che fare con l’AI. Sarà infatti difficile applicare i requisiti di trasparenza nell’accesso ai dati correlato alla decisione presa nel processo di black-box applicato da tecniche di AI, e risulterà pertanto piuttosto difficile soddisfare il diritto di accesso e spiegare la logica delle decisioni individuali automatizzate: o tale diritto non sarà possibile, o sarà troppo vago per fornire informazioni preziose.
In questo contesto, la Blockchain come meccanismo indipendente, distribuito e sicuro per gestire ed elaborare un enorme numero di record in modo tracciabile e verificabile rappresenterebbe un metodo di controllo altamente sicuro nell’ambito della tutela della privacy. Detto questo, i dati possono essere costituiti da molti elementi diversi, tra cui informazioni e dati personali.
Il rapporto con la pubblica amministrazione
Parallelamente alle interazioni tra privati, il valore dei dati raccolti dal settore pubblico ha acquisito sempre più rilevanza e attenzione negli anni passati. Ciò si è tradotto in un’intensificazione degli sforzi per assicurare la pubblicazione dei dati detenuti dal governo a livello nazionale, regionale e locale. Il principio dell’Open Government intende avvalersi dell’utilizzo di questi strumenti al fine di gestire in modo dinamico, collaborativo e ottimale il rapporto fra Pubblica Amministrazione e cittadini. Questo nuovo approccio facilita e favorisce la partecipazione diretta dei cittadini alla vita delle istituzioni pubbliche per co-decidere le priorità e le conseguenti azioni da mettere in campo.
È in questo modo che il cittadino entra appieno nel suo ruolo di contatto tra Open Government e il principio degli Open Data e il loro potenziale ruolo di contrasto alla corruzione. L’Open Government rappresenta dunque un’iniziativa multilaterale che mira a garantire impegni concreti da parte dei governi nella promozione della trasparenza, nel riconoscimento di un più ampio potere dei cittadini, nella lotta alla corruzione e nell’impiego di nuove tecnologie per rafforzare la governance delle amministrazioni coinvolte.
Gli Open Data possono essere un primo, importante, passo verso la trasparenza e la partecipazione attiva degli utenti. Le PA, sia a livello centrale che locale, hanno negli ultimi mesi cominciato a liberare i dati, mettendo a disposizione dei cittadini e delle imprese un valore fatto di informazioni preziose. Ma il dato libero non basta, e per rendere un servizio veramente utile a cittadini, istituzioni e imprese, questi dati vanno aggregati, elaborati e offerti sotto forma di servizi.
Al contempo l’innovazione basata sui dati è anche sostenuta dal libero flusso di dati. In questo ambito, il tema dei Big Data e delle transformative technologies si incrocia con la tematica della data sharing. Per sfruttare al massimo l’economia dei dati, l’Unione Europea considera oggi essenziale consentire ai dati di fluire ed essere utilizzati oltre i confini nazionali. Ciò consentirebbe infatti la crescita e la creazione di posti di lavoro, stimolando in modo significativo la competitività europea nel mercato globale.
Note:
[1] McKinsey Global Institute, Modeling the Impact of AI on the World Economy, 2018. https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the-ai-frontier-modeling-the-impact-of-ai-on-the-world-economy
[2] PwC, 2018 AI Predictions, 2018. https://www.pwc.com/us/en/services/consulting/library/artificial-intelligence-predictions.html
[3] Commissione Europea, Horizon 2020, 2014. https://ec.europa.eu/programmes/horizon2020/
[4] State of California Department of Justice, California Consumer Privacy Act (CCPA), 2018. https://oag.ca.gov/privacy/ccpa
[5] Consiglio Europeo, Conclusions on the coordinated plan on Artificial Intelligence, 2018. https://data.consilium.europa.eu/doc/document/ST-6177-2019-INIT/en/pdf