international analysis and commentary

Fra etica e algoritmi

Dal numero 94 di Aspenia

30,159

La presenza di intelligenze artificiali, nella forma di machine learning, è piuttosto estesa nelle società digitalizzate. Ne sono dotati alcuni strumenti di uso comune come i telefoni, i computer e i microfoni connessi a internet in casa: hanno interfacce “intelligenti” che decodificano i comandi vocali e rispondono a tono alle domande, per esempio, o sistemi di riconoscimento biometrico che garantiscono l’accesso solo al legittimo proprietario.

Ma intelligenze artificiali operano in un’infinità di altre applicazioni: per il microtargeting degli annunci pubblicitari; per la guida semiautonoma delle automobili; per la lettura delle radiografie; per il monitoraggio delle macchine industriali allo scopo di fare manutenzione preventiva; per sistemi di sicurezza anti-intrusioni nei sistemi informatici; per droni capaci di concludere operazioni militari; per il calcolo del merito di credito dei cittadini; per la traduzione di testi in un centinaio di lingue; per la lettura dei dati satellitari e il controllo dell’irrigazione mirata in agricoltura, e così via. Ogni giorno si presentano nuove tecnologie che fanno uso di sistemi automatici guidati da intelligenze artificiali. Il giudizio sulle conseguenze della loro introduzione è ovviamente la premessa delle decisioni che le società prenderanno per gestire tali conseguenze. Qual è il ruolo dell’etica in tutto questo?

 

INNOVARE A PRESCINDERE O PREVENIRE I PROBLEMI? Il problema è tutt’altro che estemporaneo. Di fronte all’innovazione tecnologica si notano spesso due approcci: il primo approccio punta a innovare per poi gestire le conseguenze; il secondo tenta di prevenire i rischi. In generale, prevale il primo approccio: si comincia facendo automobili pericolose e poi si dotano i nuovi modelli di cinture di sicurezza e altri strumenti che riducono la gravità degli incidenti; si comincia facendo lavorare i bambini nelle manifatture inquinanti e poi si creano leggi che garantiscono ai più piccoli il diritto a istruirsi e salvaguardano l’ambiente; si comincia con social network che creano dipendenza e diffondono messaggi d’odio senza freni inibitori e poi si tenta di introdurre qualche sistema di controllo, e così via.

In qualche caso, invece, funziona bene il secondo approccio: nella farmaceutica le precauzioni che il sistema pretende prima di consentire l’immissione di un nuovo prodotto sul mercato sono piuttosto significative e servono alla fiducia che i consumatori ripongono nei farmaci. I sostenitori del primo approccio pensano che un eccesso di precauzione sia un freno per l’innovazione; quelli del secondo approccio ritengono che garantisca affidabilità e fiducia nei prodotti, dunque serva a uno sviluppo innovativo sostenibile. Nel mondo digitale finora si è fatto riferimento al primo approccio, ma con l’IA le preoccupazioni sono maggiori e sembrano spingere considerare il secondo approccio più prudente. Perché?

 

Leggi anche: Il confronto globale per il controllo della rete digitale

 

I problemi che rendono l’intelligenza artificiale controversa sono importanti e intricati. Possono essere classificati in una serie di argomenti: i problemi cognitivi, che derivano essenzialmente da basi di dati che contengono distorsioni statistiche gravi tali da generare operazioni sbagliate e umanamente ingiuste da parte dei programmi automatici; i problemi di efficienza che derivano dalla quantità di calcolo che è necessaria per certe operazioni, con la conseguenza di un consumo importante di energia; i problemi di ineguaglianza sociale, alimentati dalla crescita delle barriere cognitive e organizzative che possono dividere e aumentare progressivamente la distanza economica e sociale tra chi comprende e chi non comprende la tecnologia, tra chi sa come adattarsi o addirittura cavalcare l’innovazione e chi resta passivamente indietro; i problemi politici che possono essere alimentati dalla presenza di potentissime armi informative, utilizzabili anche senza dichiarare palesemente la guerra o di sistemi di controllo delle attività dei cittadini che possono limitarne la libertà; i problemi sociali che si sviluppano nel capitalismo della sorveglianza, come definito da Shoshana Zuboff, a favore delle aziende che controllano grandi quantità di dati e che possono usarli per manipolare la consapevolezza delle persone o per indirizzarne le scelte di consumo, risparmio, lavoro.

 

L’ETICA COME ISPIRAZIONE. In questo contesto, le società stanno tentando di imparare a “pensare” le conseguenze dell’intelligenza artificiale. L’OCSE ha dimostrato che il problema si può affrontare in modo attento e razionale, almeno per quanto riguarda le conseguenze dell’IA sul lavoro: l’allarmismo sulla disoccupazione tecnologica non è giustificato, ma la consapevolezza della profondità della trasformazione organizzativa si traduce nella necessità di preparare i lavoratori perché si possano adattare al nuovo scenario tecnologico. Per generalizzare questo approccio pragmatico occorre liberarsi dai pregiudizi. Per qualche decennio, le decisioni strategiche sono state prese all’insegna di un’idea di progresso secondo la quale ogni nuova versione della tecnologia era sempre migliore della precedente, mentre la sua valutazione più complessiva era lasciata essenzialmente al mercato finanziario.

Oggi, questa autoreferenzialità non è più sufficiente. D’altra parte, sarebbe assurdo bloccare lo sviluppo dell’ia per evitare i rischi accennati, rinunciando alle enormi opportunità che questa tecnologia offre. La ricerca dell’equilibrio è essenziale. In questo contesto, la sfida dell’etica, senza risolvere ogni problema, è essenzialmente un’ispirazione.

Quale può essere la strada giusta che la società può cercare di imboccare allo scopo di dare all’innovazione generabile con l’intelligenza artificiale una direzione compatibile con gli obiettivi di sviluppo umano, democratico, economico, culturale, ecologico ai quali non si può rinunciare? A fronte della complessità dell’argomento c’è una sola certezza: non basteranno poche e banali regole. Si svilupperà un sistema articolato di norme sociali, incentivi economici, consuetudini sociali. Anche perché non sarebbe etico lasciare al mercato di decidere su qualsiasi sviluppo tecnologico, ma non sarebbe neppure etico impedire al mercato di trovare soluzioni che, seppure nella loro imprevedibilità, potrebbero portare grandi benefici alla società.

La difficoltà sta proprio nel decidere che cosa si decide prima che l’innovazione sia fatta e che cosa si decide dopo. La cultura etica e quella tecnologica sono accomunate dalla stessa necessità di “prevedere”. L’etica è una riflessione sulle conseguenze delle azioni umane per indirizzarle verso il bene comune. Il machine learning, incarnazione attuale dell’intelligenza artificiale, è l’automazione della lettura predittiva dei dati per classificare, ordinare, clusterizzare informazioni, arrivando a estrapolare modelli di comportamento delle realtà studiate sulla base dei quali si possono produrre soluzioni di supporto alle decisioni. Poiché sia l’etica che l’IA sono predittive, in un contesto storico complesso devono essere considerate soprattutto come due processi di apprendimento, dotati di un approccio più probabilistico che deterministico, aperto al feedback della realtà e capace di adattamento veloce. L’etica serve a discutere che cosa è giusto ottenere con l’innovazione, mentre la tecnologia serve a immaginare che cosa è possibile ottenere con l’innovazione. La policy dovrebbe fare sintesi.

 

IL BIVIO PER l’EUROPA. La Commissione europea ha pubblicato nel maggio del 2021 una proposta di regolamentazione dell’intelligenza artificiale, nel quadro di una vasta discussione normativa sulla gestione dei dati e sui servizi e i mercati digitali. Gli obiettivi della Commissione sono molteplici: aumentare la competitività dell’industria europea, indirizzare gli sviluppi tecnologici in modo compatibile con le priorità europee, a partire dalla sostenibilità, garantire la democraticità della convivenza civile in Europa e la salvaguardia dei diritti umani. Prima di pubblicare quella proposta, la Commissione aveva chiesto approfonditi rapporti a esperti di questioni industriali, democratiche e, appunto, etiche dell’intelligenza artificiale.

La proposta della Commissione contiene una serie di princìpi e alcuni esempi applicativi. E intende definire gli ambiti di sviluppo dell’IA che saranno lasciati al mercato e quelli che saranno governati dalla policy o che saranno del tutto vietati. A giudicare dal dibattito pubblico seguito alla proposta europea, con oltre 300 reazioni di aziende e associazioni, la Commissione è a un bivio: secondo alcuni dovrà concentrarsi sulla precisione dei dettagli applicativi della regolamentazione; secondo altri dovrà puntare ai princìpi democratici ed etici senza compromessi. Quale strada sarà decisa?

Le aziende, in generale, commentando la proposta della Commissione, hanno chiesto norme più dettagliate: come mostra un sondaggio di Politico, Huawei, ibm e altri hanno chiesto una definizione precisa di intelligenza artificiale; Google ha chiesto chiarimenti su quali siano i sistemi considerati “rischiosi”; Facebook vuole sapere che cosa siano le “tecniche subliminali” che saranno vietate; Openai esige specifiche più chiare su “rischi di manipolazione” connessi all’intelligenza artificiale. Le associazioni per i diritti umani, invece, hanno chiesto alla Commissione di intervenire più radicalmente per difendere i cittadini: Amnesty International, Access Now, EDRI, per esempio, hanno avanzato varie proposte, come il divieto del riconoscimento facciale e di qualsiasi identificazione biometrica in luoghi pubblici, l’intervento obbligatorio di organizzazioni che proteggono i diritti umani per valutare l’impatto delle innovazioni, più trasparenza tecnologica.

È evidente che se la Commissione sceglierà di entrare nei dettagli, definendo con precisione le tecnologie alle quali le sue norme vanno applicate, si troverà di fronte a un muro di discussioni, producendo decisioni lente e facilmente superabili dalle novità tecnologie. A tutto vantaggio delle aziende che volessero approfittarne. D’altra parte, più la Commissione proporrà un regolamento concentrato rigidamente sui princìpi, più ne delegherà al sistema giudiziario e amministrativo l’applicazione alle situazioni concrete, col rischio di generare incertezza e frenare l’innovazione.

 

PRINCIPI SALDI E RAPIDITÀ DECISIONALE. Non sappiamo quale sarà la strada che la Commissione sceglierà. Ma sappiamo che se questa è l’alternativa, la strategia corretta per la Commissione dovrebbe essere quella di evitare prioritariamente l’errore di impantanarsi nella regolamentazione dei dettagli – che sarebbe presto obsoleta in un settore che innova velocemente – per poi cercare le soluzioni che possano limitare il rischio di frenare l’innovazione facendo di tutto per contenere l’incertezza normativa. Ma come?

È necessaria con ogni evidenza un’innovazione anche nel sistema decisionale. Un’innovazione che consenta di valorizzare la stabilità dei princìpi mentre si gestisce la velocità del cambiamento nei dettagli.

 

Leggi anche: Regulating tech giants: much more than a legal issue

 

Un’ipotesi può essere quella di ampliare e rafforzare il ruolo delle “dichiarazioni” che descrivono i diritti umani e delle “agende” per lo sviluppo sostenibile, superando l’abitudine a considerarle soltanto un insieme di esercizi teorici per farle diventare fonte di ispirazione e base di discussione cogente per la produzione di normative, oltre che fonte privilegiata per l’interpretazione delle stesse in sede giudiziaria

La Dichiarazione dei diritti in internet, realizzata da una commissione della Camera dei deputati italiana nel 2015 e votata poi dall’unanimità dall’assemblea al completo, dimostrava che una visione strategica è possibile e può essere utile a guidare l’attività normativa, oltre che aiutare chi deve giudicare in merito a interpretare le fattispecie e le norme in modo consapevole della sostanza e complessità dei problemi. Di quei 14 articoli, scritti sotto la guida di Stefano Rodotà, alcuni sono di grande attualità, come articolazione di princìpi strategici: la neutralità della rete, che impedisce ai potenti del digitale di bloccare l’innovazione degli outsider; l’interoperabilità delle piattaforme, che garantisce agli utenti il controllo dei loro dati; la valutazione di impatto digitale che obbliga i governi a studiare le possibili conseguenze dirette e indirette delle loro ipotetiche decisioni prima di approvarle, in un percorso chiaramente orientato a sentire ogni stakeholder prima di scegliere su materie complesse come quelle che riguardano l’ecosistema digitale.

Quella commissione, a sua volta, era un esempio di assemblea multistakeholder, con deputati di ogni fazione politica, esperti di ogni disciplina coinvolta (tra i quali chi scrive), e con la guida di una persona visionaria, in grado di trovare la sintesi dando soddisfazione a tutti. È stata in effetti un’esperienza di etica applicata per definire una strategia per lo sviluppo umano nel mondo digitale. Importante per il testo che ha prodotto e anche per il metodo che l’ha condotta.

In ogni caso, data la velocità del cambiamento tecnologico, per evitare l’obsolescenza delle norme è logico articolare i regolamenti su più livelli: un insieme di princìpi stabili, proprio perché strategici, possono costituire le fondamenta di una costruzione normativa in grado di aggiornare le casistiche e le regole di dettaglio più facilmente, guidando le policy e facilitando il sistema giudiziario quando deve interpretare le leggi nei casi concreti.

Nella complessità, l’etica è una fonte di ispirazione: se per definizione un comportamento è etico quando avvantaggia tutti, allora molti punti di vista vanno fatti valere. E molti livelli decisionali devono entrare in gioco. Strutturando un equilibrio tra gli obiettivi di lungo termine e le urgenze del momento. Evitando che i dettagli impediscano la visione sintetica del bene comune. A questo servono i principi in un contesto complesso e dinamico: a stabilizzare la cultura delle conseguenze, pensando, insieme, ciò che è possibile e ciò che è giusto.

 

 


Questo articolo è stato pubblicato sul numero 94 di Aspenia