L’intelligenza artificiale non è più soltanto una questione tecnologica: è diventata il terreno su cui si misura il potere nel XXI secolo. Come un tempo il controllo delle rotte terrestri e marittime o l’accesso alle materie prime e alle risorse naturali definivano le gerarchie di potere tra gli stati del mondo, oggi è la capacità di sviluppare, controllare e diffondere sistemi di IA avanzata a determinare chi guida e chi segue nell’ordine internazionale. Siamo entrati in una fase in cui algoritmi, chip e dati sono leve geopolitiche di importanza primaria.
Questo spostamento non è avvenuto in modo improvviso. Ha radici nei primi anni Dieci del Duemila, quando la convergenza tra big data, potenza computazionale e apprendimento automatico ha trasformato l’IA da ambizione accademica a strumento industriale e militare. Ma è con l’ascesa dei grandi modelli linguistici, a partire dal 2020, e con la loro rapida integrazione in sistemi decisionali, militari e di sorveglianza, che la posta geopolitica si è alzata in modo definitivo. Il risultato è un sistema internazionale in cui tre grandi attori — Stati Uniti, Cina e Unione Europea — perseguono strategie radicalmente diverse, con implicazioni profonde per la sicurezza globale, la governance tecnologica e i Paesi che ancora cercano un loro posto in questa partita.
Stati Uniti: primato tecnologico e sicurezza nazionale
Washington ha costruito la sua strategia sull’assioma che la leadership nell’IA equivale a supremazia strategica. Il “National AI Initiative Act” del 2020, aggiornato con successivi decreti, ha consolidato un approccio che integra investimenti federali massicci, collaborazioni con il settore privato americano da OpenAI a Anthropic, da Google DeepMind a Microsoft, e una ulteriore militarizzazione della ricerca applicata – un legame strutturale: la ricerca tecnologica americana è storicamente intrecciata con il settore privato e con i contratti del Dipartimento della Difesa, da ARPANET in poi. Il Pentagono ha stanziato oltre 1,8 miliardi di dollari nel solo 2024 per applicazioni che vanno dall’analisi dell’intelligence alla gestione autonoma di droni, dai sistemi di difesa missilistica alla previsione di conflitti – lanciando un nuovo ciclo di investimenti che ricorda quelli del periodo della Guerra Fredda.
Il secondo pilastro della strategia americana è il controllo delle catene di fornitura, in particolare dei semiconduttori avanzati. Le restrizioni all’esportazione di chip di fascia alta verso la Cina, introdotte nel 2022 e inasprite nel 2023 e 2024 (tutte sotto l’amministrazione Biden), rappresentano il primo vero tentativo di “weaponizzare” la dipendenza tecnologica. Un’operazione mirata a rallentare la capacità computazionale avversaria, perché senza hardware adeguato anche il più sofisticato modello di IA rimane inutilizzabile. Ma muoversi in questa direzione ha dei costi collaterali: può allontanare dei partner commerciali, accelerare la corsa cinese all’autosufficienza, e frammentare definitivamente l’ecosistema tecnologico globale.
Cina: autosufficienza, sorveglianza e proiezione globale
Pechino ha risposto con un progetto di lungo periodo articolato su tre assi. Il primo è l’autonomia tecnologica: il programma “Made in China 2025” e il successivo “New Generation AI Development Plan” puntano esplicitamente a rendere la Cina leader mondiale nell’IA entro il 2030, riducendo progressivamente la dipendenza da componenti e know-how occidentali. Nonostante le restrizioni sui chip, aziende come Huawei hanno accelerato lo sviluppo di alternative basate sul sistema produttivo cinese (o allargato all’Asia orientale), con risultati parziali ma significativi.
Il secondo asse è l’uso interno dell’IA come strumento di controllo sociale e politico. Il sistema di riconoscimento facciale diffuso in tutto il Paese, la gestione algoritmica dei flussi informativi, il “sistema di credito sociale”: sono applicazioni che mostrano un utilizzo orientato in modo più esplicito al controllo sociale e politico: una scelta che riflette una priorità sistemica dell’ordine rispetto alle libertà individuali, anche se va detto che strumenti analoghi – dal riconoscimento facciale alle piattaforme di sorveglianza di massa – trovano applicazione crescente anche in contesti democratici occidentali. La differenza sta nella scala, nella sistematicità e nell’assenza di vincoli normativi indipendenti.
Il terzo asse è la proiezione esterna: attraverso la Belt and Road Initiative digitale, Pechino esporta infrastrutture tecnologiche come reti 5G, sistemi di sorveglianza, piattaforme di pagamento, in decine di Paesi emergenti, costruendo rapporti di dipendenza e influenza a lungo termine.
Unione Europea: la via della regolazione
Bruxelles ha scelto un percorso diverso e, per certi versi, più coraggioso: affermare la propria centralità non attraverso la potenza dei propri campioni tecnologici – troppo pochi e troppo piccoli rispetto agli operatori americani e cinesi – ma attraverso la definizione delle regole del gioco. L’AI Act, entrato in vigore nel 2024, è il primo sistema normativo globale sull’intelligenza artificiale: una legge che classifica le applicazioni per livello di rischio, vieta determinate pratiche (come il riconoscimento biometrico di massa in spazi pubblici) e impone requisiti di trasparenza e responsabilità agli sviluppatori.
Leggi anche: Europe should bet on Original Intelligence
Questa strategia ha una logica precisa: chi definisce gli standard diventa un attore sistemico, indipendentemente dalla potenza produttiva. È il cosiddetto “effetto Bruxelles”, già sperimentato con il GDPR sulla protezione dei dati, che ha influenzato legislazioni in tutto il mondo. Ma il modello europeo ha limiti evidenti: rallenta l’innovazione, fa fatica a attrarre capitali e talenti rispetto agli ecosistemi americano e cinese, e rischia di produrre regole per tecnologie sviluppate altrove. La vera sfida per l’Europa non è solo regolare l’IA, ma creare le condizioni perché nasca e cresca in casa. Segnali incoraggianti esistono – la francese Mistral AI, la tedesca Aleph Alpha, la britannica DeepMind (ora parte di Google) – ma si tratta di eccezioni che confermano la regola: il divario con i colossi americani e cinesi resta enorme. OpenAI, per fare un paragone, ha raggiunto una valutazione di mercato paragonabile al PIL di paesi europei di medie dimensioni. L’Europa non è fuori dalla partita, ma per restarci dovrà combinare la forza regolamentare con investimenti pubblici e privati di scala, e con una vera integrazione dei mercati del capitale di rischio.
Rischi di conflitto tecnologico
La competizione tra questi tre modelli non avviene in un vuoto: genera tensioni concrete che potrebbero precipitare in crisi di difficile gestione. Il rischio più immediato è quello della frammentazione dello spazio tecnologico globale – lo “splinternet” esteso all’IA – in cui standard incompatibili, restrizioni all’export e logiche di blocco rendono impossibile qualsiasi forma di coordinamento su sfide comuni. Un’IA sviluppata secondo logiche geopolitiche opposte non può essere interoperabile: non solo a livello tecnico, ma anche normativo ed etico.
Leggi anche: Ansia Artificiale
Il secondo rischio è legato alla corsa all’armamento algoritmico. Sistemi d’arma autonomi (LAWS), capacità di attacco informatico potenziate dall’IA, sistemi di decisione militare con ridotta supervisione umana: sono sviluppi già in corso, già utilizzati nelle guerre recenti ad esempio in Iran e a Gaza, che pongono interrogativi urgenti. A differenza delle armi nucleari, i sistemi di IA militare non sono facilmente verificabili né conteggiabili, il che rende i trattati di controllo enormemente più complessi. Il rischio di escalation non intenzionale – due sistemi automatizzati che innescano una crisi prima che i decisori umani possano intervenire – è concreto e sottovalutato. Altrettanto importante, si crea una comunanza di interessi tra le aziende che sviluppano sistemi di AI e il loro impiego concreto in situazioni di guerra.
Il terzo rischio riguarda la manipolazione dell’informazione su scala industriale. Deepfake, contenuti sintetici, campagne di disinformazione personalizzate su base algoritmica: l’IA abbassa drammaticamente il costo della propaganda e aumenta la sua portata. Questo vale per un numero crescente di attori statali: le operazioni di influenza russe e cinesi sono ampiamente documentate, ma anche gli Stati Uniti e l’Iran hanno sviluppato capacità analoghe, sia per uso esterno che per condizionare il dibattito pubblico interno. La differenza tra queste campagne sta spesso negli obiettivi e nelle modalità, non nell’esistenza dello strumento. Il fenomeno riguarda poi anche attori non statali – gruppi estremisti, organizzazioni criminali – che possono ora accedere a capacità un tempo riservate ai servizi di intelligence.
Opportunità di cooperazione internazionale
Eppure la competizione non è l’unico scenario possibile, né forse quello più probabile nel lungo periodo. L’IA pone sfide che nessun attore può affrontare da solo: la sicurezza dei sistemi critici, la gestione dei rischi esistenziali legati ai modelli più avanzati, la governance dei mercati del lavoro in trasformazione, l’accelerazione della transizione energetica. Su questi temi, cooperare è nell’interesse razionale di tutti, anche dei concorrenti.
I segnali esistono, benché timidi. Il Summit on AI Safety di Bletchley Park nel 2023, seguito da quelli di Seul e Parigi, ha riunito governi, compresi USA e Cina, su un terreno di dialogo comune sui rischi sistemici dell’IA avanzata. Il Codice di condotta per le organizzazioni che sviluppano IA frontiera, adottato nel G7 del 2023, rappresenta un primo tentativo di standard minimi condivisi – seppure in un gruppo che, appunto, include solo sette Paesi. E l’ONU ha istituito un organo consultivo di alto livello sull’IA, segnale che il tema è entrato nel perimetro del multilateralismo formale (si vedano: AI Safety Summit, Bletchley Park, novembre 2023; Seoul AI Summit, maggio 2024; Paris AI Action Summit, febbraio 2025; G7 Hiroshima AI Process, ottobre 2023,; UN High-level Advisory Body on AI).
Leggi anche: The red string of diplomacy: sense-making, AI, and the perils of infinite connection
La sfida è trasformare questi embrioni di cooperazione in architetture istituzionali robuste. Il modello dell’AIEA per il nucleare – controllo internazionale, ispezioni, trattati vincolanti – è difficilmente replicabile per l’IA, data la natura duale (civile e militare) della tecnologia anche nelle sue applicazioni più semplici – a differenza del nucleare, dove la separazione tra uso civile e militare è tecnicamente più agevole da rilevare e ha permesso strumenti come il TNP – e la velocità del suo sviluppo. Ma possono esistere forme più leggere di controllo condiviso: accordi di trasparenza sui test di sicurezza, canali di comunicazione d’emergenza tra le principali potenze, standard minimi per i sistemi ad alto rischio.
Le prospettive dei Paesi emergenti
In questa partita a tre tra grandi potenze, i Paesi emergenti rischiano di essere ridotti a pedine: destinatari di tecnologie sviluppate altrove, soggetti a dipendenze strutturali, privi di voce nei forum in cui si definiscono regole e standard. Eppure il quadro è più complesso e, per certi versi, più aperto di quanto sembri.
Alcuni Paesi del Sud Globale stanno sviluppando capacità proprie nell’IA, sfruttando disponibilità di dati, talenti formati all’estero e mercati interni in crescita. India e Brasile hanno avviato strategie nazionali ambiziose. In Africa, città come Nairobi, Lagos e Città del Capo stanno emergendo come centri di innovazione con applicazioni specifiche per i contesti locali nel campo di agricoltura di precisione, sanità rurale, servizi finanziari per popolazioni non bancarizzate. Queste non sono imitazioni di modelli esterni, ma risposte originali a problemi legati al contesto locale.
La questione cruciale in questo caso è quella della sovranità sui dati e delle condizioni di accesso alla tecnologia. Se i modelli di IA più avanzati restano concentrati in pochi attori privati occidentali o cinesi, e se i dati generati nel Sud Globale alimentano sistemi che poi vengono venduti a quei mercati senza trasferimento di conoscenza, il rischio è una nuova forma di estrazione coloniale digitale. È un nodo che il dibattito globale sull’IA non può continuare a ignorare.
Implicazioni per la sicurezza e la governance globale
L’IA impatta sulla sicurezza globale su più livelli contemporaneamente. Sul piano militare, come già osservato, può accelerare la proliferazione di capacità offensive e complica la stabilità strategica. Sul piano della sicurezza interna, amplia enormemente le capacità di sorveglianza degli Stati, con rischi evidenti per le libertà civili nei regimi autoritari ma anche in democrazie che cedono alla tentazione del controllo totale. Sul piano economico, l’automazione di funzioni cognitive mette sotto pressione mercati del lavoro già indeboliti, con potenziali ricadute sulla coesione sociale e la stabilità politica.
La governance globale dell’IA è ancora, in larga misura, da costruire. Il rischio è che si arrivi a definirla solo dopo che crisi concrete – un incidente militare innescato da un sistema autonomo, una campagna di disinformazione che altera il risultato di elezioni cruciali, un attacco informatico su infrastrutture critiche – abbiano già mostrato il costo dell’assenza di regole. L’esperienza del nucleare, dell’aviazione civile, di internet stessa, insegna che le architetture di controllo nascono spesso in risposta ai disastri, non per prevenirli.
L’intelligenza artificiale rappresenta forse la sfida più complessa che la comunità internazionale abbia mai affrontato: una tecnologia di utilizzo generale, a doppio uso, sviluppata prevalentemente da attori privati e che mantengono segreta la maggior parte della propria attività di ricerca scientifica, con impatti su ogni dimensione della vita umana. Affrontarla richiede un salto di qualità nella cooperazione internazionale, nella capacità regolatoria degli Stati e nella responsabilità degli attori privati. Non è detto che questo salto avvenga. Ma è certo che il costo del non farlo sarà molto alto.