Come pensano le macchine

Questo articolo è pubblicato sul numero 1-2024 di Aspenia

Tra le definizioni di intelligenza artificiale (IA) preferite dagli specialisti che se ne occupano e la realizzano c’è quella che la descrive come un insieme di strumenti tecnologici in grado di svolgere funzioni simili a quelle del cervello umano nelle sue capacità cognitive. Tra queste ultime si considerano rilevanti l’apprendimento dall’esperienza e la memorizzazione, la risoluzione di problemi tramite il ragionamento e la logica e, più in generale, l’applicazione e l’elaborazione delle conoscenze. Questa definizione è gradita ai tecnici perché di natura pragmatica: si basa solo sull’analogia funzionale tra l’organo biologico e la sua versione artificiale senza addentrarsi troppo, a una prima analisi, nella comprensione di ciascuno dei due livelli.

La costruzione delle macchine che pensano, orientata dall’analogia con l’umano su compiti specifici, ha determinato anche la scelta della terminologia usata nell’IA e nell’informatica in generale. Non solo intelligenza quindi ma anche termini come memoria, apprendimento, rete neurale, sinapsi, bias e, in tempi recenti, anche sogno e allucinazione vengono usati sia nel contesto umano che in quello artificiale. Questa intrinseca ambiguità del linguaggio tecnico, che utilizza gli stessi termini nei due diversi contesti, è sia croce che delizia di questa rivoluzione industriale: essa è suggestiva e fonte di ispirazione per gli addetti ai lavori ma risulta piena di insidie e abusi quando approda nel dibattito pubblico.

Tali considerazioni preliminari intendono contestualizzare il senso di questa breve riflessione: mentre l’essere umano ha la percezione individuale diretta per ognuno dei termini appena menzionati e ha raggiunto un discreto consenso sociale sul loro significato, sarebbe fonte di seri fraintendimenti trasportare quelle percezioni e quei significati al funzionamento dei computer.

 

LE DUE COMPONENTI DELL’IA. Come pensano dunque le macchine, come ragionano, come raggiungono le loro conclusioni? L’IA anzitutto, è composta da una miscela di due componenti profondamente diverse che corrispondono a due diversi modi di concepire l’intelligenza umana e quindi di imitarla.

Una è quella che si concentra sulla facoltà ritenuta più elevata, cioè la ragione che opera con la logica. Un esempio calzante lo si ha con la matematica. La nostra intelligenza riesce a sommare, moltiplicare e fare anche operazioni più complesse. Verso tutti i calcoli matematici nutriamo da sempre un grande rispetto e al tempo stesso un certo timore. Per eseguirli, infatti, siamo costretti a concentrarci e di solito, quando la complessità del computo che ci troviamo a fare è alta, il tempo che ci è necessario per eseguirlo aumenta a dismisura. L’arte di calcolare in modo efficiente si acquisisce col tempo e la pratica ed è una parte importante del lavoro dei matematici di professione. La logica è in qualche modo l’astrazione del calcolo ed è ritenuta alla base della nostra capacità di ragionare, cioè fare progressi intellettuali con metodi oggettivi che soddisfano principi quali l’assenza di contraddizioni e altre proprietà. Le macchine calcolatrici – da quella di Antikitera di oltre due millenni fa, che era puramente meccanica, a quelle elettroniche moderne, che si sono mostrate così efficienti a fare calcoli – hanno in qualche modo suggerito la possibilità di potere automatizzare i processi logici del pensiero. L’approccio della programmazione logica all’intelligenza artificiale, che in sostanza si traduce in tecniche di codifica con linguaggi elevati, lontani dal numerico e più vicini ai concetti, è quello che è stato sviluppato con maggior vigore fino a tutto il secolo scorso. Esso ha prodotto risultati interessanti lasciando tuttavia grandi lacune. Giusto per fare un esempio la capacità di classificare e riconoscere immagini o quella di tradurre testi in lingue diverse non è mai stata raggiunta da questa versione di IA.

L’altra componente invece è metodologicamente speculare e parte dal basso. Si avvale delle conoscenze dei processi neuronali biologici legati all’apprendimento e alla memorizzazione, in particolare della cosiddetta plasticità dei legami sinaptici tra i neuroni. Nel cervello biologico sia la memoria che l’apprendimento si realizzano attraverso un processo adattivo delle sinapsi agli stimoli esterni. Nel loro insieme neuroni e sinapsi riescono a concettualizzare e formare astrazioni tanto quanto a memorizzarle. La crescita di questa IA, che è quella chiamata di apprendimento automatico, ha preso velocità soprattutto grazie alla corrispondente crescita di potenza di calcolo e a grandi basi di dati tipiche dell’era internet. Tali basi di informazioni umane sono quelle da cui la moderna intelligenza artificiale, con apprendimento automatico di tipo profondo, estrae la conoscenza che le risulta utile per automatizzare alcuni compiti che in precedenza erano svolti solo dall’essere umano.

Va subito precisato che questa seconda componente, che è nel cuore della rivoluzionaria tecnologia di cui stiamo parlando, è di tipo “prescientifico”. Con questo termine – usato con accezione fortemente positiva – si intende una componente di quelle che cambiano la scienza in quanto spingono la ricerca verso quegli orizzonti necessari per rispondere ai nuovi perché. Per comprendere appieno il senso di questa prospettiva pensiamo ai primi motori a vapore agli albori della rivoluzione industriale. Quei motori non erano solo un insieme di leve e ingranaggi, perché avevano una parte attiva, la camera di combustione e quella dove il vapore si espandeva e contraeva. Muovevano le loro parti, consumavano legna, facevano avanzare i carri senza bisogno dei cavalli. Noi sapevamo come costruirli, avevamo un’idea del come funzionassero, ma non sapevamo rispondere a molti dei perché della scienza. Per esempio, a cavallo tra il sette e l’ottocento non era chiaro perché il carro a vapore di Berlino faceva più strada, a parità di carbone usato, di quello di Parigi. Lo sforzo fatto per rispondere a tutte quelle domande ci ha portato una nuova teoria scientifica, la Termodinamica, coi suoi concetti di rendimento massimo, di temperatura assoluta, e ha introdotto una delle quantità più feconde di tutta la scienza moderna, l’entropia.

Allo stesso modo, i computer che oggi parlano con noi non hanno solo programmi in codice scritti a mano dall’uomo, come per esempio quelli per sommare le frazioni o far funzionare le implicazioni “se – allora” che sono le leve e gli ingranaggi dell’informatica e corrispondono ai primi tentativi di imitare l’intelligenza elevata, quella guidata dalla logica. Le macchine moderne contengono anche una parte attiva, che invece di trasformare energia in lavoro come facevano le macchine dell’Ottocento, trasforma informazione cruda, quella contenuta nei dati, in piccole ma preziose conoscenze. Capire perché queste macchine funzionano, identificare cioè i principi e con essi i limiti del loro rendimento, per poi ottimizzarle, è un compito fondamentale della scienza di oggi e del suo futuro.

 

LA NOVITÀ DELL’ATTUALE IA. Nell’ultimo anno l’apprendimento automatico profondo ha prodotto dei sistemi, come ChatGPT, che dialogano con noi con una fluidità a cui non siamo abituati nelle macchine e la sensazione che ne deriviamo è quella di essere di fronte a un qualcosa di veramente vicino all’umano. Ovviamente questa è l’impressione. Ma come stanno veramente le cose? Abbiamo raggiunto l’intelligenza umana? L’abbiamo superata? Quel test che porta il nome di uno dei padri fondatori dell’informatica, Alan Turing, è stato finalmente oltrepassato dai computer moderni? Non si può rispondere in poche righe a questa domanda ma alcune considerazioni possono risultare utili. In alcune capacità i computer sono molto più forti dell’uomo. Questo non ci turba più di tanto già dai tempi in cui le piccole macchine calcolatrici degli anni Settanta svolgevano calcoli con numeri molto grandi a velocità superumane. Ai tempi però l’orgoglio dell’uomo, nello specifico la centralità che l’uomo percepisce di avere nell’universo, non era veramente minacciata. Sappiamo infatti, e oggi più che mai, che il calcolo è una parte rilevante sì, ma molto piccola dell’attività intellettuale della nostra specie. Noi inventiamo, noi siamo creativi, noi dipingiamo, scriviamo poesie… ci è bastato spostare un po’ più in alto l’asticella dell’intelligenza umana e andare avanti facendo finta di nulla. Si diceva che le macchine ci avevano già da tempo superato in prove di forza, per esempio quella muscolare, attraverso l’uso del motore, e questa del calcolo non era che una nuova prova di forza in cui ci superavano. Il punto è che negli ultimi anni siamo stati costretti a spostare questa asticella molto spesso, troppo spesso. Le ultime conquiste poi non possono essere liquidate come nuove prove di forza perché non lo sono.

Cerchiamo di approfondire un po’ senza entrare nei dettagli tecnici. Abbiamo detto che la prima forma di intelligenza artificiale era esplicitamente codificata, scritta in linguaggio opportuno, dal programmatore. Il computer non faceva altro che eseguire i nostri comandi a velocità ed efficienza altissima con probabilità di errore trascurabili e in ogni caso di tanti ordini di grandezza minori di quelle dell’uomo. L’intelligenza immessa nel programma era però tutta nostra, la macchina calcolatrice aggiungeva solo una smisurata forza di calcolo. E ora è diverso? Si, profondamente, radicalmente diverso. Il programmatore adesso non scrive affatto il programma “riga per riga”. Al suo posto scrive solo un algoritmo che concettualmente lo fa adattare, fino a una precisione ritenuta soddisfacente, a un enorme database da cui esso estrae la conoscenza di nostro interesse. Da un database di fotografie di gatti e cani il computer impara a riconoscerli, da molti esempi di traduzioni il computer impara a tradurre, etc. etc. ma nessun programmatore sa scrivere esplicitamente un codice che faccia queste operazioni. In altre parole, “l’intelligenza” che il programma finale mostra dopo l’addestramento coi dati non è più solo quella che abbiamo insegnato nel nostro codice scritto a mano, la macchina è andata oltre. Ha usato forza bruta di calcolo? Si, certamente, ma non solo quella! Ha aggiunto infatti un qualcosa che prima non c’era desumendola, distillandola dal database.

 

UN TIPO DI INTELLIGENZA DIVERSO DA QUELLA UMANA. Da anni – cioè, da quando il riconoscimento delle immagini in automatico è diventato superumano – uso il termine “rivoluzione” per questa tecnologia. Quel che ho in mente è proprio la rivoluzione del motore della prima rivoluzione industriale. Le prime macchine che aiutavano l’uomo erano sostanzialmente un insieme di leve che, azionate dal braccio umano, riuscivano a fare lavori troppo duri per i nostri muscoli. Ma quando alla fine del Settecento è arrivato il motore, non si poteva più dire che esso fosse solo una macchina che funzionava con le sue leve, perché il motore è molto di più. Per comprendere il suo funzionamento non sono bastate le leggi di Newton e neppure la loro elegante formulazione fatta da Lagrange. È stata invece necessaria una scienza nuova – la termodinamica – che partisse da nuovi principi sconosciuti alla meccanica e che sono diventati i suoi assiomi. Ora ci troviamo in una situazione per certi versi analoga: nonostante l’apprendimento automatico sia composto da tanti piccoli passaggi algoritmici ognuno dei quali può essere ispezionato nei dettagli, nel loro insieme l’apprendimento procede in modi che ancora non sappiamo pienamente comprendere. Le frontiere della tecnologia richiedono quindi uno sforzo di ricerca che obbliga la scienza a cambiare e a muovere passi in territori del tutto inesplorati.

Ma torniamo al cuore della nostra riflessione. La macchina che opera ChatGPT pensa? È intelligente? Basta parlarci un po’ per rimanerne affascinati. Possiamo chiederle come si tagliano i capelli a un bambino, come si ricicla il cemento, perfino come ci si comporta dopo una brutta lite con un amico. Dalle sue risposte, l’impressione che il programma ci capisca è ineludibile. Possiamo chiedergli di aiutarci a fare la scelta del percorso di studi universitario o di scrivere un messaggio d’amore. Quel che dice risulta, quasi sempre, non solo ragionevole e plausibile ma anche gradevole, competente e persino sinceramente appassionato. E se non siamo convinti possiamo obiettare, controbattere, insistere. La macchina mostra una conoscenza veramente molto ampia. Se ci accontentiamo senza andare a fondo, l’ampiezza di quel che conosce supera quella del più colto degli uomini. E se indaghiamo oltre le prime risposte? Sappiamo che è facile trovare delle défaillance e che queste emergono in diversi modi. Per esempio, le risposte che il software fornisce sono verosimili, ma decisamente non accurate nel livello di veridicità. Inoltre, le sue capacità logiche sono in sostanza quasi inesistenti. La sua forza infatti proviene dall’elaborazione statistica e non dalle regole aristoteliche che vivono in un mondo distante rispetto a quello del linguaggio.

Nel concludere, ci troviamo ancora di fronte alla domanda se l’intelligenza artificiale sia vera intelligenza o meno. Il punto è che questa domanda è mal posta; dovrebbe ormai fare spazio alla constatazione che l’IA è un’intelligenza reale ma di natura sostanzialmente diversa dalla nostra. Essa dialoga con noi e pensa, ragiona, trae conclusioni da presupposti in un modo che somiglia molto al nostro senza essere il nostro. Il nostro cervello, in un unico corpo biologico di neuroni e connessioni sinaptiche, memorizza, apprende e riesce persino a elaborare in modalità logiche. Fa tutto questo consumando appena qualche decina di watt. La macchina artificiale ha invece tre corpi per ognuna delle tre facoltà. La memoria alla sua base funziona in modo strutturalmente diverso dalla nostra, ha una capacità immensa rispetto a quella umana e fa in percentuale pochissimi errori. L’elaboratore che si occupa di apprendere dai dati ha ancora, a differenza del nostro, la necessità di enormi database e per questa ragione ha un consumo energetico gigantesco. Infine, l’elaboratore logico della macchina è praticamente infallibile a differenza del nostro che è lento e ci affatica, ma è ancora integralmente dipendente da noi e dal codice che scriviamo istruendolo passo dopo passo. Quei due modi di elaborazione non sono ancora ben integrati nella macchina e comunicano malissimo tra loro. Non sappiamo quando e neppure se dalla stessa macchina che apprende emergeranno facoltà logiche.

In ogni caso quel traguardo non è ancora all’orizzonte anche perché non sappiamo quasi nulla nemmeno di come siano emerse le facoltà logiche dall’apprendimento naturale che avviene nel nostro misterioso e straordinario cervello.

 

 


*Questo articolo è pubblicato sul numero 1-2024 di Aspenia

 

 

scienceAIculturesocietytechnologydigital