international analysis and commentary

Esseri umani, robot e reti

404

Le tecnologie più rivoluzionarie – le cosiddette disruptive technologies – sono spesso il frutto di ricombinazioni graduali e vari tentativi falliti, più che l’atto geniale di un visionario. Si tratta, in molti casi, di innovazioni quasi invisibili e per certi versi banali, nel senso che svolgono funzioni ripetitive con l’efficienza dei processi iterativi a grande velocità ma senza errori.

Tra le tecnologie, il caso della robotica è peculiare, perché siamo di fronte all’eventualità che una nostra creazione finisca per sfuggirci di mano, e addirittura sopraffarci, proprio in virtù della caratteristica che riteniamo più unicamente umana: l’intelligenza. La più logica via d’uscita dal dilemma è quella di innestare nei robot dei meccanismi di salvaguardia, potremmo dire degli “autolimitatori”. Isaac Asimov – forse il più noto autore di fantascienza (e fisico) – è tuttora ricordato per aver codificato in modo semplice i principi fondamentali da inserire nel “cervello/processore” dei robot, cioè le cosiddette Leggi della Robotica:

     Un robot non può recar danno agli esseri umani né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno. 

     Un robot deve obbedire agli ordini impartiti dagli esseri umani tranne nel caso che tali ordini siano in contrasto con la Prima Legge. 

     Un robot deve salvaguardare la propria esistenza, purché ciò non sia in contrasto con la Prima o la Seconda Legge. 

Era il lontano 1942 quando lo scrittore pubblicò per la prima volta le Tre Leggi, eppure esse restano una buona base per discutere delle mille implicazioni – etiche, legali, di sicurezza pubblica e privata – della robotica applicata, soprattutto se questa diventa un fenomeno di massa. Ed è esattamente ciò che sta accadendo oggi.

L’aspetto che fu in qualche misura sottovalutato da Asimov, e da molti “futurologi” alla ricerca di scenari plausibili al di fuori della letteratura, è quello dell’interconnessione tra macchine. In altre parole, la capacità dei robot di connettersi costantemente tra loro, e con banche-dati e flussi di informazioni digitali, ma anche con il mondo “fisico” grazie alla presenza di sensori sempre più pervasivi e precisi. La continua crescita della rete digitale sta creando un ecosistema sufficientemente complesso da produrre fenomeni di evoluzione molto simili a quelli del mondo biologico. In tale contesto, il grado di intelligenza di un robot non è più determinato in partenza una volta per tutte, ma invece può crescere e subire delle mutazioni. E come in ogni dinamica evolutiva, l’esito non è predefinito né prevedibile.

Se ciò è vero, le Leggi della Robotica di Asimov potrebbero non essere sufficienti a garantire il controllo umano sulle macchine – anche perché queste saranno in grado di produrre altre macchine (o meglio altri organismi) con caratteristiche che possono forse sfuggire alle Leggi originarie. In sostanza, si tratta oggi di capire se e quando arriveremo ad una soglia critica oltre la quale la complessità, la presenza pervasiva, e la velocità dell’intelligenza artificiale raggiungeranno livelli troppo alti perché l’umanità eserciti un pieno controllo.

Ci sono almeno due modi di analizzare questa sfida, che in ogni caso richiederà l’adozione di nuovi strumenti legali oltre che di una profonda riflessione etica: guardare al suo “lato oscuro”, come un vero salto nel buio per l’umanità; oppure interpretare quanto sta accadendo come una nuova forma di “distruzione creatrice” – il modello di cambiamento sintetizzato dall’economista austriaco Josef Schumpeter nel suo più famoso libro del 1942 (proprio lo stesso anno delle Leggi della Robotica inventate da Asimov).

Secondo Schumpeter, il capitalismo produce innovazione mediante nuove combinazioni di fattori della produzione preesistenti, spesso superando le resistenze iniziali di una vasta maggioranza dei consumatori. In altre parole, l’innovazione crea il suo stesso mercato. Così il cambiamento tecnologico e dei processi produttivi genera anche evoluzione sociale, non necessariamente positiva ma comunque feconda e in ogni caso quasi inevitabile.

In fondo, le grandi reti digitali del XXI secolo sono una versione moltiplicata della ricombinazione schumpeteriana – una versione accelerata. Il problema semmai è che la moltiplicazione ha già raggiunto un ritmo esponenziale, e dunque siamo entrati nello strano mondo degli effetti “non lineari”, dove l’output non è proporzionale all’input e possono innescarsi dinamiche caotiche.

Se questo modo di ragionare può apparire alieno dalla logica delle decisioni politiche o perfino del business (solitamente più rapido nell’adattarsi ai cambiamenti indotti dalle tecnologie), ciò significa soltanto che è urgente un cambio di passo. Le società odierne sono già direttamente influenzate dall’intreccio tra robotica, comportamenti umani (alcuni costanti, altri determinati dalle diversità culturali), e reti digitali. Internet è il luogo di incontro tra intelligenze diverse, cioè quella umana, quella artificiale da noi creata, e quelle ancora in via di emersione di cui non conosciamo il futuro. Certo, si può esercitare il diritto al libero arbitrio e non andare online, limitando la propria vita virtuale per non essere risucchiati in una specie di “Matrix”. Ma il carattere pervasivo dei processi in rete, sia per la vita lavorativa che per quella personale, rende questa opzione sempre meno praticabile.

In ogni caso, raramente l’evoluzione perdona chi non si adatta.