La notizia: “OpenAI riaccende il servizio d’intelligenza artificiale in Italia, dopo aver risposto ai rilievi del Garante per la privacy per adottare una serie di misure per adeguare il servizio alle norme europee sulla protezione dei dati personali”.
Tutto a posto dunque, possiamo stare tranquilli. E chi mai altri s’è posto il problema a parte il Garante per dovere d’ufficio?
Noi comuni mortali, per quanto riguarda le nuove tecnologie, siamo classificati nel campo dei tecnofili entusiasti di queste innovazioni, o in quello dei tecnofobi che le respingono per un senso di disagio, di arcaismo o altro, ma tutti costretti volenti o nolenti a fare i conti con il loro inesausto e pervasivo incalzare.
L’intelligenza artificiale non è solo una questione tecnologica. È tutt’altro, perché questa pseudo-intelligenza nasconde qualcosa di più inquietante, che consiste nel lasciare che un pugno di umanoidi doti delle macchine di un potere simile a quello di un regime totalitario.
Sto esagerando? Prendere posizione a favore o contro le tecnologie ha poco senso, ognuna di esse può essere impiegata al meglio, così come al peggio. Tuttavia dobbiamo uscire da questa visione binaria imposta da chi vuole farci credere che la tecnologia è buona in sé quando e se usata in un certo modo. Dobbiamo sempre tener conto del quadro socio- economico in cui s’inseriscono le nuove tecnologie e pertanto chiedersi anche in tal caso: chi controlla l’intelligenza artificiale e che uso potrà farne?
Questa domanda non viene affrontata politicamente (non solo in Cina e simili). Tendiamo a dimenticare che, dietro le macchine, ci sono esseri umani che hanno degli interessi e il potere di decidere che cosa fare con queste macchine potenti.
Ci hanno portato a pensare (e quest’idea è stata rafforzata durante la pandemia) che coloro che si occupano di queste faccende sono esseri muniti di intelligenza e cultura superiore, poiché sono “scienziati” o comunque degli “esperti”, competenti per decidere che cosa è bene per noi. In filosofia politica, questo si chiama dittatura.
Partiamo da un esempio. Se Amazon si trasformasse in banca, non solo conoscerà le nostre spese, ma anche le nostre entrate e relativo portafoglio. Può quindi iniziare a distribuire prodotti di risparmio meglio di chiunque altro, perché chi meglio di un’azienda che conosce il patrimonio, le entrate e le uscite dei propri clienti può conoscere il profilo di rischio di una persona? L’intelligenza artificiale consente di analizzare dati trasversali per accedere a questi livelli di conoscenza dei propri clienti. Ma tutto ciò indica anche un’altra cosa: l’unico modo per le banche di proteggersi da questo fenomeno trasformativo del mercato è diventare esse stesse delle Amazon. Tempo al tempo.
Un altro esempio che nostro piccolo mondo quotidiano sperimentiamo spesso. Per i servizi online abbiamo a che fare con segreterie telefoniche automatiche che ci prendono per il culo senza darci risposta. Non c’è possibilità per loro di dire “la tua richiesta non può essere elaborata dalla macchina”, come se fosse quest’ultima a decidere cosa sia possibile e cosa no. Semplicemente certi utenti non sono inclusi nel sistema delle risposte che ne rendono complicata, se non impossibile, l’elaborazione. Si è pensato solo al 98% delle domande che rientra nel quadro previsto, ma non al 2% che ne sfugge. Questo è il “tirannico”: quando si punta solo al “normale”, escludendo l’“anomalo”, il “non compatibile”.
Fateci caso, quante volte ponendo un quesito o una richiesta a questi risponditori automatici vocali o in chat vi sentite parte di quell’”anomalo” due per cento? In quel momento pensiamo di far parte di una percentuale decisamente più alta poiché quella frustrante situazione la sperimentiamo più e più volte quasi tutti noi.
Sto scrivendo questo post perché ieri, a distanza di decenni, ho rivisto il film 2001 Odissea nello spazio. Mi ha colpito, come già 55 anni fa, una frase ripetuta più volte: HAL 9000, il supercomputer di bordo, “non può sbagliare”. Sappiamo com’è finita. Uno dei due astronauti riesce a disattivare HAL e così si salva, permettendo in tal modo al regista di continuare il suo racconto fantastico ed enigmatico.
Dunque veniamo anche all’aspetto “tecnico” della faccenda. Due disastri aerei avvenuti nel 2018 e nel 2019, decollati rispettivamente da Jakarta e Addis Abeba. Il loro bilancio cumulativo fu di 346 vittime, che sarebbero ancora vive oggi se ai computer di bordo non fosse stata data troppa facoltà di decidere autonomamente.
In ognuno di questi casi, i Boeing erano dotati di un sistema chiamato MCAS, destinato a far precipitare l’aereo verso il basso quando si inclina, per poi consentirgli di riprendere quota ed evitare che cada in sganciamento. Tuttavia, i due disastri sono avvenuti durante il decollo. Era normale che l’aereo si alzasse poiché era in fase di salita, ma il sistema MCAS ne ha causato un’inversione errata. Nell’incidente del 2018, i piloti non erano nemmeno stati informati dell’esistenza di questo sistema nel velivolo: non capivano nulla di ciò che stava accadendo e quindi non potevano fare nulla. Nel caso occorso nel 2019 erano stati informati della presenza di questo sistema, ma non erano stati formati per disattivarlo in caso di guasto. In questi due incidenti la colpa è stata dei manager che hanno deciso di delegare tutto alle macchine, mantenendo l’illusione che esse non sbagliano mai, come HAL nel film.
Altro esempio concreto: il volo 1549 della US Airways il 15 gennaio 2009. A seguito di un guasto mentre volava su New York, i piloti hanno “atterrato” l’aereo sul fiume Hudson. È questo un perfetto esempio di ciò che un’intelligenza artificiale non potrebbe fare. I piloti decisero di atterrare sul fiume anche se, in teoria, la superficie dell’acqua ha una resistenza equivalente a quella del cemento contro un aereo che vi arriva sopra. L’atterraggio sul fiume era quindi considerato impossibile in quel momento, e per questo la torre di controllo aveva chiesto all’equipaggio di tentare il rientro in aeroporto. Se i piloti avessero obbedito, lo schianto era garantito. Hanno avuto l’intuizione di tentare qualcosa a priori impossibile, e questa improvvisazione di emergenza ha permesso di evitare il dramma. Nessuna macchina l’avrebbe fatto.
Una macchina obbedisce necessariamente a un programma, per quanto esso sia sofisticato e simuli “autonomia” decisionale. Dunque, obbedisce ancora e solo a degli input per cui è stata programmata e non può mai immaginare un’altra opzione che non sia stata in qualche modo “innestata”. Il salvataggio del volo 1549 nasce innanzitutto da una disobbedienza agli ordini. Questa capacità di disobbedire è una delle differenze essenziali tra l’intelligenza umana e l’intelligenza artificiale.
Altri esempi si potrebbero trarre dai cosiddetti “robot trader”, computer progettati per eseguire transazioni finanziarie a una velocità incomparabilmente maggiore di quella umana. Sono stati creati per permettere ad alcune persone di fare molti soldi. Il problema è che se queste macchine sono lasciate a sé stesse, rischiano di devastare i mercati finanziari e causare disastri economici.
Le macchine non sono “neutrali”, la loro attività dipende dal programma, dagli “innesti”, e dal fatto che questa tecnologia, così come tutte le altre, è funzionale agli interessi concreti di chi la gestisce. Per sua natura l’AI non solo è imperfetta ma è orientata, per esempio a generare più valore aggiunto, cioè ad aumentare lo sfruttamento, diminuire i salari e creare nuova massiccia disoccupazione.
In una start-up come Deliveroo, il fattorino non obbedisce più a un manager umano, ma a un’intelligenza artificiale che gli dice dove consegnare e premia la sua prestazione. In tal modo la pizza può arrivare da 30 km, quando a pochi passi c’era una pizzeria della stessa catena. Salvo poi ripetere meccanicamente parole per placare la rabbia dei clienti irritati dalle delusioni legate al prodotto o servizio acquistato.
Il problema con l’intelligenza artificiale è che esclude la dimensione umana. Con essa non avremmo altro da fare che obbedire e consumare ciò che produce. Ci disumanizza. Ad esempio, con ChatGPT, vogliamo avere la risposta prima di cercare. In questo modo non impariamo più a imparare, il che ci priva, tra l’altro, di una forma di umanità e di felicità.
Abbiamo la prova già da tempo con i social network: mostriamo mediamente una marcata idiosincrasia per la lettura di un testo oltre una certa lunghezza, oppure se presenta un certo grado di complessità. S’è impossessata di noi una pigrizia intellettuale, una costante diminuzione delle nostre capacità d’attenzione (gli insegnanti di scuola lo verificano sempre di più, così come lo sanno gli imbonitori televisivi).
L’attenzione volontaria è una funzione psichica superiore, tipicamente umana, scarsamente o per nulla sviluppata negli altri animali. Il decadere di tale funzione produce effetti nell’apprendimento volontario, nella costruzione di concetti astratti e più in generale, per farla breve, con il pensiero logico e la pianificazione delle azioni, anche se nei social un elevato numero di umanoidi sono in grado di simulare la propria intelligenza in modo artificiale.
Una macchina, per quanto sia evoluto il suo deep learning costruito su reti neurali artificiali, è atta a calcoli strabilianti e all’assemblaggio di dati, ma non può mai dare certe risposte relative al significato (è ciò che rende per es. la tecnologia alla base delle auto a guida autonoma così complicata). Il termine “intelligenza” è quindi infelice, perché non c’è nulla di realmente “intelligente” in ciò che fa una macchina. Prendendone atto saremmo già meno ingannati da questi nuovi Sarastro che vogliono farci credere che il futuro sarà una vita da sogno.