Tecnologia e nuovi conflitti globali

Dal numero 94 di Aspenia

Il progresso tecnologico osservato nei campi dei processori, dei big data e del machine learning ha portato, nel corso degli ultimi due decenni, a una drammatica accelerazione nel più ampio ambito dell’intelligenza artificiale (IA). Si pensi ad esempio al riconoscimento facciale e vocale o alla robotica: oggi fanno parte della nostra vita di tutti i giorni ma solo qualche anno fa appartenevano, a ragione, alla fantascienza. Questo progresso è stato talmente rapido e drammatico da stravolgere intere gerarchie industriali: l’industria petrolifera, le grandi banche internazionali, e i colossi del settore automobilistico e dell’elettronica hanno infatti lasciato la vetta della classifica delle aziende a maggiore capitalizzazione del mondo a favore di big data companies come Google, Amazon, Apple e Facebook. Per tanti, questo è solo l’inizio.

Il massiccio ed esteso processo di digitalizzazione che ha accompagnato questa transizione ha infatti già cambiato profondamente la nostra vita, le nostre società e le nostre economie: chi sfoglia più un’enciclopedia, le mappe stradali cittadine (Tuttocittà), la guida del telefono, o le pagine gialle?

Gli affari militari non sono rimasti esclusi da questa transizione: comunicazioni in tempo reale, droni senza pilota, missili di precisione, intercettazioni e attacchi cyber fanno ormai parte integrante delle capacità a disposizione di qualsiasi forza armata moderna.

 

Leggi anche: Politica e potere nell’era delle reti

 

Mentre il settore commerciale sta ulteriormente accelerando nel campo dell’intelligenza artificiale con l’obiettivo di raggiungere ulteriori efficienze, creare nuovi prodotti e risolvere nuovi e vecchi problemi, il mondo della difesa e della sicurezza, attratto dagli sviluppi in campo commerciale, si appresta di conseguenza a integrare con maggiore intensità questi e futuri sviluppi all’interno dei suoi processi, delle sue strutture e delle sue attività. Gran parte dell’opinione pubblica, degli studiosi e dei ricercatori mostrano però apprensione. A nostro modo di vedere, queste preoccupazioni sono esagerate. Il cambiamento tecnologico in atto è comunque una componente della competizione strategica che contraddistingue storicamente i rapporti tra Grandi Potenze. E come nel passato, emergerà vincitore chi saprà adattarsi e adeguarsi non solo tecnologicamente ma anche dal punto di vista organizzativo, economico e industriale.

 

IL PASSATO E IL FUTURO DELL’INTELLIGENZA ARTIFICIALE. Il progresso osservato negli ultimi due decenni nel campo dell’intelligenza artificiale è il prodotto di tre dinamiche concatenate: la crescente capacità computazionale dei microprocessori (la famosa legge di Moore); la conseguente possibilità di digitalizzare quante più informazioni possibili, che a sua volta ha portato all’esplosione dei dati digitali (big data); e infine, proprio per via di processori sempre più performanti e dati sempre più disponibili, la possibilità di raffinare particolari algoritmi nel campo del machine learning e in paricolare del deep learning (algoritmi che estraggono pattern, dinamiche relazionali e dati previsionali da banche dati digitali di enormi dimensioni).

Ci sono infatti, fondamentalmente, due meta-approcci all’intelligenza artificiale. Uno top-down, simile all’approccio deduttivo nelle scienze sociali, che consiste nello sviluppare software in grado di gestire, ex ante, ogni tipo di contingenza in maniera deterministica (es: “quando vedi rosso frena, quando ci sono bambini sul marciapiede rallenta”). Un secondo approccio, bottom-up, simile invece all’approccio induttivo, si fonda sull’estrazione di trend e pattern dai dati: invece di programmare il software per ogni evenienza, si lascia che questo impari dai dati e applichi poi queste lezioni nella sua interazione con l’ambiente circostante (input = area cittadina, case residenziali, individui di bassa statura rumorosi; induzione = pericolo; output = rallentare). Il primo approccio è stato a lungo dominante fino agli anni 2010, quando i progressi nel campo dei semiconduttori e l’esplosione dei dati digitali hanno da una parte permesso e dall’altra richiesto di approfondire il secondo approccio così da gestire un’enorme e crescente mole di dati. Semiconduttori sempre più performanti e infinita disponibilità di dati digitali rappresentano infatti l’invenzione del motore e della benzina, rispettivamente, di cui il deep learning aveva bisogno per funzionare.

Non è un caso che siano state aziende specializzate in big data, ovvero con accesso a una mostruosa mole di dati come Amazon, Apple, Facebook e Google a sfruttare questa transizione. Man mano che l’intelligenza artificiale faceva progressi eclatanti, non solo vincendo a quiz televisivi come Jeopardy! oppure a giochi come Go, ma anche risolvendo problemi complessi nella medicina, nella biochimica, nella farmacologia, nella climatologia e in molto altri ambiti, l’attenzione si è presto spostata anche sul mondo della difesa. A ciò hanno contribuito il piano programmatico del governo cinese del 2017 volto a raggiungere l’egemonia mondiale nel campo dell’intelligenza artificiale, il programma del Pentagono Project Maven che mirava a sfruttare big data per ottimizzare la sorveglianza aerea tramite droni, e infine allarmanti prese di posizioni da parte di personaggi del calibro Elon Musk (secondo il quale la militarizzazione dell’IA rischia di portare a un nuovo conflitto mondiale) o Vladimir Putin (per cui chi controllerà l’IA controllerà il mondo). Se l’intelligenza militare è così dirompente nel mondo commerciale – ci si è progressivamente interrogati – quali sono le sue implicazioni nel mondo militare?

 

PAURE E PREOCCUPAZIONI. L’applicazione dell’intelligenza artificiale nel mondo della difesa ha generato paure e apprensioni. Tre sono i rischi identificati da analisti e osservatori. In primo luogo, lo sviluppo dell’IA, alla luce della sua natura commerciale, permetterebbe a una pluralità di attori di avere facilmente accesso a sistemi d’arma avanzati, con drammatiche implicazioni sulla stabilità internazionale a livello locale, regionale e globale.

In secondo luogo, per via della sua natura pervasiva, l’intelligenza artificiale sarebbe più simile all’elettricità che alla polvere da sparo. Di conseguenza, potrebbe essere facilmente sfruttata in maniera sistemica con effetti dirompenti sull’equilibrio di potenza nel sistema internazionale. Infine, l’intelligenza artificiale rischia di generare crisi, escalation e anche conflitti che, in altre circostanze, potrebbero essere evitati e gestiti dalla diplomazia. A causa della sua velocità di calcolo e dell’inevitabile imprecisione degli algoritmi, l’IA rischia infatti di interpretare erroneamente alcuni input e accelerare vorticosamente una semplice incomprensione in una crisi nucleare. Allo stesso modo, sempre per via della sua natura induttiva, l’intelligenza artificiale di oggi rischia di esacerbare alcune dinamiche: per esempio, un sistema di armi autonome potrebbe deliberatamente fare fuoco contro determinati gruppi di individui perché conformi allo stereotipo dell’avversario (per genere, età, religione o etnia) anche se estranei al conflitto. In maniera analoga, un regime autoritario potrebbe utilizzare le capacità di discriminazione degli algoritmi per minacciare particolari gruppi politici, etnici o religiosi. Senza ovviamente considerare la (discutibile, a detta dei critici) legittimità e la legalità di usare dei sistemi autonomi per fare fuoco contro truppe nemiche

In conclusione, a detta dei più scettici, l’adozione dell’intelligenza artificiale negli affari militari rischia solo di portare crisi, conflitti, instabilità e violazioni dei diritti umani. Ciò spiega il lancio di varie campagne, nel corso degli ultimi 15 anni, contro i killer robot, le armi autonome e l’IA applicata alla difesa.

 

LE RAGIONI TECNICHE PER CUI QUESTE PAURE SONO ESAGERATE. Queste paure sono esagerate. In primo luogo, dopo 15 anni di campagne contro il rischio imminente di una nuova guerra mondiale scaturita dai killer robot, non solo non abbiamo ancora visto la nuova guerra mondiale, ma neppure abbiamo visto tutti questi killer robot. Sia gli approcci deduttivi che quelli induttivi all’intelligenza artificiale hanno dei vantaggi ma anche enormi limiti che, fondamentalmente, ne riducono le possibilità d’applicazione.

Gli approcci deduttivi (cosiddetto “Good Old-Fashioned AI”, o GOFAI) richiedono sforzi enormi in termini di complessità del software per poter anticipare ogni singola possibile contingenza. Ma anticipare ogni singola contingenza è simile alla ricerca balzachiana dell’assoluto: con un avversario reattivo che opera in un contesto dinamico, è un proposito vano. Un sistema basato sull’approccio induttivo (machine learning e deep learning), invece, richiede un’enormità di dati per estrapolare correlazioni previsionali (training) da applicare poi nel mondo reale (inference). L’accesso ai dati, la loro rappresentatività ed esaustività, oltre a hardware estremamente performanti, rappresentano le principali limitazioni di questo approccio che infatti deriva pattern senza una necessaria connessione logica. Quindi l’algoritmo può decidere di sparare quando si avvicina un avversario che prende la mira con un’arma ma potrebbe anche decidere di sparare perché si verificano un insieme di condizioni ragionevoli (genere, età, altezza, etnia) o meno (espressione facciale, marca delle scarpe, ora del giorno e pieghe sul vestito) a prescindere che l’individuo sia un nemico. A ciò si aggiunge la minaccia posta dagli avversari che possono da una parte compromettere i dati su cui vengono fatte le estrapolazioni (training) per hackerare, di fatto, l’algoritmo, e dall’altra – attraverso i generative adversarial networks (GANS) – alterare subdolamente i dati che l’algoritmo raccoglie (come semplici pixel di alcune immagini) in fase operativa (inference) per corrompere le sue computazioni (incluso ritorcersi contro i suoi utilizzatori).

Gli operatori militari sono al corrente di queste limitazioni, e non hanno interesse a dotarsi con eccessiva fretta di strumenti che, se non assolutamente affidabili, potrebbero creare, sul campo di battaglia e magari in situazioni che coinvolgono civili, più problemi di quelli che sarebbero in grado di risolvere.

In secondo luogo, il progresso osservato nell’ia negli ultimi vent’anni deriva principalmente dagli approcci induttivi – il machine learning e in particolare il deep learning. Questi sono estremamente utili in contesti chiusi e controllati, ma lo sono molto meno in contesti aperti e dinamici. Ciò spiega come mai, nonostante gli investimenti enormi di diverse aziende specializzate nel big data (come Google), non abbiamo ancora visto automobili totalmente autonome sulle nostre strade. Più in generale, un approccio induttivo basato sulla disponibilità di dati è vulnerabile ai problemi di statistica di base: rappresentatività del campione e gestione di eventi rarissimi (i cosiddetti cigni neri) ma altamente problematici. Una forza armata che voglia sfruttare il deep learning, soprattutto sul campo di battaglia, si deve quindi confrontare con un dilemma: non fare affidamento su queste tecnologie, con il rischio di essere sopraffatto dagli avversari, o farvi affidamento, ma rischiando di aumentare esponenzialmente le proprie vulnerabilità. Al momento, per quanto riguarda piattaforme militari autonome, queste non garantiscono ancora né una netta superiorità tattico-operativa e tecnologica sugli avversari né minori vulnerabilità.

Il deep learning ha poi bisogno di una mole enorme di dati: ciò richiede strutture fisiche e organizzative preposte alla loro raccolta, gestione e sfruttamento. I costi fissi e operativi sono talmente alti che alcuni temono già un’oligarchizzazione dell’IA: solo le università più grandi e le aziende più solide possono permettersela. Per fare un esempio, addestrare l’algoritmo di Deep Mind (aziende ora parte di Google) che ha battuto il campione mondiale del gioco da tavolo Go è costato 35 milioni di dollari.

In sostanza, la combinazione di questi limiti tecnici rende per ora prudenti le autorità militari, e di riflesso quelle politiche, nell’adozione di piattaforme basate sull’intelligenza artificiale.

 

IL CUORE DEL DIBATTITO. In attesa di arrivare (se mai) al Master Algorithm, l’algoritmo che controlli tutti gli altri, che porti all’era della superintelligenza e infine all’egemonia globale, l’adozione dell’intelligenza artificiale da parte di paesi, ministeri della difesa e forze armate in giro per il mondo sarà verosimilmente graduale. Ci saranno errori e incidenti, ma appare difficile che ci siano degli scossoni sismici. D’altronde, le stesse grandi aziende stanno procedendo passo dopo passo: da progetti pilota (“come gestire specifiche minacce di cybersecurity” o “migliorare alcune parti della logistica”) con cui si cerca di acquisire esperienza e conoscenza, si automatizzano specifici processi (tutta la sicurezza informatica o la logistica), per poi ridisegnare l’intera struttura organizzativa – un po’ come l’introduzione del motore a vapore, dell’elettricità e poi dei computer ha modificato l’organizzazione delle aziende, a partire dalla disposizione degli uffici e degli impianti produttivi – e infine fare dell’intelligenza artificiale un organo centrale dell’intera struttura. Un po’ come l’elettricità e le information technologies (IT) al giorno d’oggi. Neppure Google è però ancora arrivata a questa fase finale, e come accennato i suoi investimenti per le auto a guida autonoma, ad esempio, non hanno ancora portato a risultati tangibili: difficile che ministeri della difesa e forze armate possano procedere più speditamente.

 

Leggi anche: The global fight on Big Tech, and its unintended consequences

 

Le ragioni sono molteplici: per adottare l’intelligenza artificiale, anche solo all’interno di processi aziendali esistenti, servono persone innovative e competenti. Ma queste sono difficili da reclutare addirittura nel mondo commerciale. È poi necessaria un’organizzazione con una cultura aperta alle novità e al rischio – che quindi non penalizzi chi prova a modernizzare le strutture esistenti. Le forze armate, necessariamente, devono invece minimizzare i rischi. Come anticipato, sono poi necessarie strutture fisiche per la raccolta, la gestione e lo sfruttamento dei dati. Queste richiedono investimenti che vanno a fare competizione con carri armati, caccia e sottomarini. Parallelamente, la funzione IT deve assumere un ruolo più importante all’interno di un’organizzazione che voglia sfruttare l’intelligenza artificiale, ma – nel caso delle forze armate – ciò la mette in competizione con l’artiglieria, la logistica o il corpo dei piloti. Questa è una battaglia politica che richiede visione da parte della leadership e supporto politico interno ed esterno alle forze armate e alla difesa.

Allo stesso modo, automatizzando funzioni e processi, l’IA aiuta a prevedere più accuratamente dei trend: ma più dati abbiamo, più diventa importante l’idea di cosa ne vogliamo fare. I decisori finiscono infatti per decidere di meno, quando coadiuvati dall’IA, ma su questioni più importanti. Selezionare ed equipaggiare la leadership per queste sfide è tutt’altro che immediato: bisogna imparare a prendere decisioni guardando i dati, e non la propria esperienza, e istituire processi per neutralizzare i bias cognitivi che contraddistinguono il processo decisionale.

In breve, mancano ancora vari passaggi cruciali, organizzativi prima ancora che strettamente tecnici, per rendere realmente vantaggioso l’impiego massiccio dell’intelligenza artificiale nel campo della difesa.

 

CHI VINCE E CHI VINCERÀ. L’immagine di campi di battaglia dominati da droni autonomi in grado di sterminare le truppe avversarie (umane o robotiche) è affascinante ma poco collegata alla realtà, almeno nel medio periodo. Ancora meno lo è l’idea che a sviluppare questi sistemi autonomi saranno gruppi terroristi, Stati canaglia o paesi in via di sviluppo: sistemi d’arma in grado di neutralizzare le contromisure nemiche e generare evidenti vantaggi tattico-operativi sono infatti difficili e costosi da sviluppare. Se il solo addestramento dell’algoritmo usato per vincere a Go è costato $35 milioni, difficile pensare che il software per un’arma autonoma possa essere economico, soprattutto considerando che questo dovrà gestire molte più variabili in un contesto più dinamico e complesso. D’altronde, in Europa continentale non ci sono praticamente leader nel campo dell’intelligenza artificiale: ciò conferma ulteriormente quanto l’IA non sia per nulla facile da sviluppare. Allo stesso modo, pare improbabile che i paesi più avanzati si apprestino a breve a utilizzare massicciamente sistemi autonomi.

In primo luogo, non ci sono veri e propri programmi d’arma di questo tipo. In secondo luogo, i rischi operativi sono ancora troppo alti – e non è detto che il deep learning li possa mai risolvere. Ciò non significa che l’ia non venga utilizzata o che non ponga importanti questioni, inclusi dilemmi etici, anzi. Fin quando l’approccio dominante sarà quello induttivo del deep learning, sarà infatti essenziale assicurare trasparenza nei dati e negli algoritmi, così da poter prevenire, ed eventualmente capire e correggere ex post, gli errori che questi commetteranno (anche se usati in funzioni di supporto quali logistica o intelligence). In terzo luogo, poiché gli algoritmi fanno ciò che chi li scrive ha in mente, implicitamente o esplicitamente, è fondamentale fornire agli sviluppatori delle linee guida etiche così da assicurarsi, fin dall’inizio, che gli algoritmi si attengano ai nostri codici morali. Questa è la ragione per cui sia gli Stati Uniti che l’Unione Europea si sono dati di linee guida nel campo dell’etica per lo sviluppo e l’uso dell’intelligenza artificiale.

La questione finale è chi vincerà questa sfida: l’ia rappresenterà la rivoluzione tecnologica che rinvigorirà l’unipolarismo americano? Sarà la trasformazione tecnica che sancirà definitivamente l’ascesa globale della Cina? O invece l’IA distribuirà in maniera omogenea capacità tecnologiche e militari, favorendo quindi una frammentazione delle capacità operative e una sorta di nuovo Medioevo. Se, come in passato, questa trasformazione richiederà creatività individuale, agilità organizzativa, flessibilità istituzionale e più in generale un sistema politico-economico in grado di accettare rischi, remunerare gli investimenti e premiare il merito, più che identificare chi vincerà questa sfida, possiamo identificare facilmente chi la perderà: i paesi che sono lontani da questo modello o che se ne stanno allontanando.

 

 


Questo articolo è stato pubblicato sul numero 94 di Aspenia

 

 


Le opinioni espresse sono strettamente personali e non rappresentano le posizioni di qualsiasi organizzazione con cui gli autori collaborano o hanno collaborato.

 

 

worldtechnologysecuritydigitalgeopoliticsdefenseglobalizationfutureAImilitary
Comments (0)
Add Comment