Le nuove frontiere dell’intelligenza artificiale richiedono il massimo esercizio dell’intelligenza umana per sfruttarne le opportunità (economiche) e contenerne i rischi (politici e sociali). Non è ancora così: l’attuale corsa tecnologica si sta piuttosto trasformando in una guerra di nervi – quanto di più umano ma poco razionale ci sia.
Prevale, per ora, l’impatto dirompente di una rivoluzione tecnologica che produce algoritmi sempre più raffinati e che alimenta, con un enorme flusso di dati, i meccanismi del “machine learning”: le macchine che imparano in modo autonomo. È una rivoluzione con i suoi vantaggi certi, in campo economico, medico, scientifico: la “tecnofobia” è sempre esistita ma va combattuta. Esistono tuttavia sfide indubbie, analizzate nell’ultimo numero di Aspenia. Per semplificare al massimo: gli ottimisti pensano solo ai benefici della possibile “singularity” – con macchine che arrivino ad avere una capacità di pensare analoga o superiore a quella dell’uomo; i pessimisti ne sottolineano i rischi per la democrazia contemporanea e la libertà individuale.
L’intelligenza artificiale ha intanto una forte valenza geopolitica: è uno dei fattori centrali della strisciante guerra fredda hi-tech fra gli Stati Uniti e la potenza sfidante, la Cina. Per ora Washington è in vantaggio, anche perché può disporre di maggiori talenti e della spinta del business privato. Ma la Cina sta investendo risorse pubbliche molto più rilevanti e dispone di una mole di dati – la benzina del machine learning – decisamente superiore. L’esito finale del confronto fra “autoritarismo digitale” e “democrazia liberale” non è predeterminato.
Al tempo stesso, l’intelligenza artificiale è destinata a esercitare un’influenza primaria sul modo di consumare, lavorare e perfino pensare delle persone. Gli utenti/consumatori sono attirati da opportunità di connessione senza precedenti. Ma in effetti producono così loro stessi la materia prima dei big data, senza curarsi granché delle conseguenze. Il rischio di nuove forme di autoritarismo digitale è crescente. Per un autore controverso come Yuval Noah Harari (in “21 lezioni per il XXI secolo”), il dominio degli algoritmi potrà mettere in crisi l’idea stessa di libertà individuale.
I dibattiti in corso sul controllo etico degli algoritmi nascono da qui e nascondono una sfida sottile: come gestire la spinta dei big data verso il conformismo, salvaguardando la possibilità di dissenso, quale bene comune, o ingrediente vitale, dei sistemi democratici. Se infatti gli algoritmi identificano attraverso i grandi numeri le tendenze prevalenti, sfruttando in vari modi la forza delle maggioranze e intervenendo sulle preferenze individuali, diventa allora decisivo tutelare i diritti delle minoranze.
Una sfida ulteriore – più ovvia ma quanto mai delicata per la tenuta delle società democratiche – è legata agli effetti dell’intelligenza artificiale sul lavoro. Il rischio tangibile è un aumento trasversale delle disuguaglianze tra chi è in grado beneficiare della rivoluzione in atto e chi ne sarà vittima potenziale. Per usare ancora le parole di Yuval Noah Harari, fasce crescenti della popolazione mondiale avranno maggiore difficoltà a lottare contro l’irrilevanza che non contro lo sfruttamento, come è avvenuto nel secolo scorso.
Il dilemma è ormai chiaro: se appare molto costoso, quando non praticamente impossibile, tagliarsi fuori dalle connessioni digitali, la iperconnessione genera nuove forme di vulnerabilità. L’approccio “business oriented” degli americani fa leva sul primo aspetto; l’approccio “regulation oriented” degli europei cerca di moderare il secondo. Entrambi hanno punti di forza e di debolezza che verranno messi alla prova nei prossimi anni.
Alcuni osservatori ritengono che l’approccio europeo consentirà soluzioni più avanzate e sofisticate (a difesa dei diritti del cittadino-consumatore) rispetto a politiche trainate solo dal business: il vecchio continente starebbe aprendo una strada che altri potrebbero seguire. Va in questo senso il nuovo regolamento europeo sulla protezione dei dati personali (GDPR). Vedremo fino a che punto le imprese europee potranno trarne un vantaggio: per ora, il ritardo europeo nel campo dell’intelligenza artificiale è netto, sia quanto a tecnologie sviluppate sia quanto a risorse comuni per attutire gli effetti sociali delle innovazioni digitali. L’esempio delle infrastrutture 5G indica che il vecchio continente – in assenza di investimenti molto più consistenti nelle nuove tecnologie – rischierà di restare schiacciata dalla competizione Stati Uniti-Cina, giocata sul fragile confine fra economia e sicurezza.
Fra spinte di business e obiettivi regolatori, fra dilemmi etici e dilemmi politici, fra competizione internazionale e sicurezza nazionale, risulta chiaro che la gestione dell’intelligenza artificiale richiede un aumento di pensiero creativo. Intelligenza artificiale e intelligenza umana dovranno riuscire a combinarsi.
* Una versione di questo articolo è stata pubblicata su La Stampa del 31 agosto 2019