domenica 30 aprile 2023

“E ti offro l’intelligenza degli elettricisti”

 

La notizia: “OpenAI riaccende il servizio d’intelligenza artificiale in Italia, dopo aver risposto ai rilievi del Garante per la privacy per adottare una serie di misure per adeguare il servizio alle norme europee sulla protezione dei dati personali”.

Tutto a posto dunque, possiamo stare tranquilli. E chi mai altri s’è posto il problema a parte il Garante per dovere d’ufficio?

Noi comuni mortali, per quanto riguarda le nuove tecnologie, siamo classificati nel campo dei tecnofili entusiasti di queste innovazioni, o in quello dei tecnofobi che le respingono per un senso di disagio, di arcaismo o altro, ma tutti costretti volenti o nolenti a fare i conti con il loro inesausto e pervasivo incalzare.

L’intelligenza artificiale non è solo una questione tecnologica. È tutt’altro, perché questa pseudo-intelligenza nasconde qualcosa di più inquietante, che consiste nel lasciare che un pugno di umanoidi doti delle macchine di un potere simile a quello di un regime totalitario.

Sto esagerando? Prendere posizione a favore o contro le tecnologie ha poco senso, ognuna di esse può essere impiegata al meglio, così come al peggio. Tuttavia dobbiamo uscire da questa visione binaria imposta da chi vuole farci credere che la tecnologia è buona in sé quando e se usata in un certo modo. Dobbiamo sempre tener conto del quadro socio- economico in cui s’inseriscono le nuove tecnologie e pertanto chiedersi anche in tal caso: chi controlla l’intelligenza artificiale e che uso potrà farne?

Questa domanda non viene affrontata politicamente (non solo in Cina e simili). Tendiamo a dimenticare che, dietro le macchine, ci sono esseri umani che hanno degli interessi e il potere di decidere che cosa fare con queste macchine potenti.

Ci hanno portato a pensare (e quest’idea è stata rafforzata durante la pandemia) che coloro che si occupano di queste faccende sono esseri muniti di intelligenza e cultura superiore, poiché sono “scienziati” o comunque degli “esperi”, competenti per decidere che cosa è bene per noi. In filosofia politica, questo si chiama dittatura.

Partiamo da un esempio. Se Amazon si trasformasse in banca, non solo conoscerà le nostre spese, ma anche le nostre entrate e relativo portafoglio. Può quindi iniziare a distribuire prodotti di risparmio meglio di chiunque altro, perché chi meglio di un’azienda che conosce il patrimonio, le entrate e le uscite dei propri clienti può conoscere il profilo di rischio di una persona? L’intelligenza artificiale consente di analizzare dati trasversali per accedere a questi livelli di conoscenza dei propri clienti. Ma tutto ciò indica anche un’altra cosa: l’unico modo per le banche di proteggersi da questo fenomeno trasformativo del mercato è diventare esse stesse delle Amazon. Tempo al tempo.

Un altro esempio che nostro piccolo mondo quotidiano sperimentiamo spesso. Per i servizi online abbiamo a che fare con segreterie telefoniche automatiche che ci prendono per il culo senza darci risposta. Non c’è possibilità per loro di dire “la tua richiesta non può essere elaborata dalla macchina”, come se fosse quest’ultima a decidere cosa sia possibile e cosa no. Semplicemente certi utenti non sono inclusi nel sistema delle risposte che ne rendono complicata, se non impossibile, l’elaborazione. Si è pensato solo al 98% delle domande che rientra nel quadro previsto, ma non al 2% che ne sfugge. Questo è il “tirannico”: quando si punta solo al “normale”, escludendo l’“anomalo”, il “non compatibile”.

Fateci caso, quante volte ponendo un quesito o una richiesta a questi risponditori automatici vocali o in chat vi sentite parte di quell’”anomalo” due per cento? In quel momento pensiamo di far parte di una percentuale decisamente più alta poiché quella frustrante situazione la sperimentiamo più e più volte quasi tutti noi.

Sto scrivendo questo post perché ieri, a distanza di decenni, ho rivisto il film 2001 Odissea nello spazio. Mi ha colpito, come già 55 anni fa, una frase ripetuta più volte: HAL 9000, il supercomputer di bordo, “non può sbagliare”. Sappiamo com’è finita. Uno dei due astronauti riesce a disattivare HAL e così si salva, permettendo in tal modo al regista di continuare il suo racconto fantastico ed enigmatico.

Dunque veniamo anche all’aspetto “tecnico” della faccenda. Due disastri aerei avvenuti nel 2018 e nel 2019, decollati rispettivamente da Jakarta e Addis Abeba. Il loro bilancio cumulativo fu di 346 vittime, che sarebbero ancora vive oggi se ai computer di bordo non fosse stata data troppa facoltà di decidere autonomamente.

In ognuno di questi casi, i Boeing erano dotati di un sistema chiamato MCAS, destinato a far precipitare l’aereo verso il basso quando si inclina, per poi consentirgli di riprendere quota ed evitare che cada in sganciamento. Tuttavia, i due disastri sono avvenuti durante il decollo. Era normale che l’aereo si alzasse poiché era in fase di salita, ma il sistema MCAS ne ha causato un’inversione errata. Nell’incidente del 2018, i piloti non erano nemmeno stati informati dell’esistenza di questo sistema nel velivolo: non capivano nulla di ciò che stava accadendo e quindi non potevano fare nulla. Nel caso occorso nel 2019 erano stati informati della presenza di questo sistema, ma non erano stati formati per disattivarlo in caso di guasto. In questi due incidenti la colpa è stata dei manager che hanno deciso di delegare tutto alle macchine, mantenendo l’illusione che esse non sbagliano mai, come HAL nel film.

Altro esempio concreto: il volo 1549 della US Airways il 15 gennaio 2009. A seguito di un guasto mentre volava su New York, i piloti hanno “atterrato” l’aereo sul fiume Hudson. È questo un perfetto esempio di ciò che un’intelligenza artificiale non potrebbe fare. I piloti decisero di atterrare sul fiume anche se, in teoria, la superficie dell’acqua ha una resistenza equivalente a quella del cemento contro un aereo che vi arriva sopra. L’atterraggio sul fiume era quindi considerato impossibile in quel momento, e per questo la torre di controllo aveva chiesto all’equipaggio di tentare il rientro in aeroporto. Se i piloti avessero obbedito, lo schianto era garantito. Hanno avuto l’intuizione di tentare qualcosa a priori impossibile, e questa improvvisazione di emergenza ha permesso di evitare il dramma. Nessuna macchina l’avrebbe fatto.

Una macchina obbedisce necessariamente a un programma, per quanto esso sia sofisticato e simuli “autonomia” decisionale. Dunque, obbedisce ancora e solo a degli input per cui è stata programmata e non può mai immaginare un’altra opzione che non sia stata in qualche modo “innestata”. Il salvataggio del volo 1549 nasce innanzitutto da una disobbedienza agli ordini. Questa capacità di disobbedire è una delle differenze essenziali tra l’intelligenza umana e l’intelligenza artificiale.

Altri esempi si potrebbero trarre dai cosiddetti “robot trader”, computer progettati per eseguire transazioni finanziarie a una velocità incomparabilmente maggiore di quella umana. Sono stati creati per permettere ad alcune persone di fare molti soldi. Il problema è che se queste macchine sono lasciate a sé stesse, rischiano di devastare i mercati finanziari e causare disastri economici.

Le macchine non sono “neutrali”, la loro attività dipende dal programma, dagli “innesti”, e dal fatto che questa tecnologia, così come tutte le altre, è funzionale agli interessi concreti di chi la gestisce. Per sua natura l’AI non solo è imperfetta ma è orientata, per esempio a generare più valore aggiunto, cioè ad aumentare lo sfruttamento, diminuire i salari e creare nuova massiccia disoccupazione.

In una start-up come Deliveroo, il fattorino non obbedisce più a un manager umano, ma a un’intelligenza artificiale che gli dice dove consegnare e premia la sua prestazione. In tal modo la pizza può arrivare da 30 km, quando a pochi passi c’era una pizzeria della stessa catena. Salvo poi ripetere meccanicamente parole per placare la rabbia dei clienti irritati dalle delusioni legate al prodotto o servizio acquistato.

Il problema con l’intelligenza artificiale è che esclude la dimensione umana. Con essa non avremmo altro da fare che obbedire e consumare ciò che produce. Ci disumanizza. Ad esempio, con ChatGPT, vogliamo avere la risposta prima di cercare. In questo modo non impariamo più a imparare, il che ci priva, tra l’altro, di una forma di umanità e di felicità.

Abbiamo la prova già da tempo con i social network: mostriamo mediamente una marcata idiosincrasia per la lettura di un testo oltre una certa lunghezza, oppure se presenta un certo grado di complessità. S’è impossessata di noi una pigrizia intellettuale, una costante diminuzione delle nostre capacità d’attenzione (gli insegnanti di scuola lo verificano sempre di più, così come lo sanno gli imbonitori televisivi).

L’attenzione volontaria è una funzione psichica superiore, tipicamente umana, scarsamente o per nulla sviluppata negli altri animali. Il decadere di tale funzione produce effetti nell’apprendimento volontario, nella costruzione di concetti astratti e più in generale, per farla breve, con il pensiero logico e la pianificazione delle azioni, anche se nei social un elevato numero di umanoidi sono in grado di simulare la propria intelligenza in modo artificiale.

Una macchina, per quanto sia evoluto il suo deep learning costruito su reti neurali artificiali, è atta a calcoli strabilianti e all’assemblaggio di dati, ma non può mai dare certe risposte relative al significato (è ciò che rende per es. la tecnologia alla base delle auto a guida autonoma così complicata). Il termine “intelligenza” è quindi infelice, perché non c’è nulla di realmente “intelligente” in ciò che fa una macchina. Prendendone atto saremmo già meno ingannati da questi nuovi Sarastro che vogliono farci credere che il futuro sarà una vita da sogno.


8 commenti:

  1. Mi spiace un po' leggere,leggere,leggere e non postare mai niente ; mi sembra quasi di rubare qualcosa.
    Pertanto almeno un grazie glielo mando

    RispondiElimina
  2. Il futuro è da incubo, non da sogno.
    Torna buono il tuo esempio del call center virtuale. Non vorrei essere noioso, ma occorre ricordare che i call centers (o, più precisamente, contact centers) hanno registrato un grande sviluppo verso gli anni novanta del secolo scorso. Il motore di questa espansione, che avveniva con operatori umani, era la moda/ideologia della qualità totale, che in sostanza eguagliava profitto a soddisfazione del cliente. Poiché però i costi erano sempre più alti, si è cominciato, proprio in nome del profitto, a sostituire l’uomo con la macchina, fino a arrivare a una completa sostituzione, che pomposamente viene chiamata AI, mentre è un abbassamento brutale del livello di servizio. Qui si innestano le tue esperienze personali, che naturalmente sono condivise da ciascuno di noi.
    Bene: ho fatto questa premessa storica per arrivare a un tema che non sempre ci vede d’accordo, ossia quello della caduta del saggio di profitto. L’esempio torna buono, perché da tempo i contact centers sono dati in outsourcing, per cui esistono aziende che fanno solo questo. Ora, se, come è vero, i contatti sono esclusivamente con la macchina, vuol dire che vediamo realizzata integralmente la temuta sostituzione macchina/uomo. Perciò, abbiamo delle aziende con plusvalore uguale a zero (Pv= 0 – 0) e saggio di profitto uguale a zero (s= 0/c+0). Tu intendi bene che, se il saggio di profitto è a zero, non si può parlare di caduta tendenziale: è già caduto. Ma l’azienda può prosperare, e così il suo padrone.
    Resta da guardare con orrore al futuro da incubo, quando il modello sarà esteso a tutte le aziende.

    RispondiElimina
  3. Nell’aviazione civile si sono sempre tenuti corsi sulla “complacency”(compiacenza): http://flyavm.it/dispense/Dispense%20HPL_Glider_Dam.pdf
    Corsi intensificati dopo l’utilizzo delle prime piattaforme inerziali, che permettevano di inserire e gestire tutto il percorso del volo da effettuare, e prima ancora degli aerei fly-by-wire(I velivoli Airbus hanno un sistema di controllo computerizzato che permette di rimanere all'interno dell'inviluppo di volo consentito dal progetto del velivolo; questo sistema mantiene sempre il controllo dell'aereo e, tranne in casi eccezionali e critici, non permette ai piloti di volare eccedendo i limiti di prestazioni stabiliti dai progettisti. Il sistema computerizzato Airbus può funzionare in cinque diverse modalità operative, dette leggi).

    RispondiElimina
  4. Tecnofili può essere un eufemismo, tecnolatri appare più appropriato. Il racconto sul miracolismo tecnico ha costruito una religione, con profeti, vescovi, chierici e fedeli supini. Abbiamo anche i frati neri travestiti con camici bianchi. Sarebbe necessario sconfiggere l'ignoranza e portare a comprendere la tecnica nelle sue evidenti limitazioni e incertezze, invece di farla diventare il nuovo oppio dei popoli. Meno la conoscono e più la adorano nel corrente medioevo. Grazie e facciamoci coraggio (da un ex tecnico per 42 anni, anche di automazione).
    Morvan.

    RispondiElimina
  5. Se ogni tecnologia risolve delle questioni poste da tecnologie precedenti, a cosa dovrebbe o avrebbe dovuto rimediare la cosiddetta IA? È irrilevante che la cibernetica sia nata durante una guerra mondiale?
    Una osservazione su 2001 Odissea nello spazio: non lo rivedo da anni ma ricordo che la tesi, secondo l'autore, era che ogni nuova forma di intelligenza suscitata dal misterioso monolite sopprime le precedenti; così lo scimmione nostro progenitore ammazza il tapiro e poco dopo, il tempo di volteggio di un femore nell'aria, un computer cerca di uccidere degli umani.
    Insomma, possiamo stare tranquilli.
    (Peppe)

    RispondiElimina
    Risposte
    1. Questa lettura così brutale di 2001 non la avevo mai sentita e mi sembra un po' limitata. Certo è che in tutto il film è raccontata attraverso passaggi significativi, anche violenti, l'evoluzione dell'uomo da scimmia a entità superiori quale il "bambino delle stelle" dell'ultima inquadratura. Hal 9000 viene escluso da questa linea evolutiva dall'intervento umano in extremis. Bowman staccando Hal rimedia ad un errore commesso in fase di progettazione della missione rendendola così possibile.
      Scusate la saccenza ma 2001 l'avrò visto 20 volte...

      Elimina
  6. La lunghezza di questo post rientra ampiamente nella mia tolleranza. Poi se la qualità del testo e degli argomenti è elevata il testo si puo eleongare a dismisura.
    Il rischio di una dittatura tecnocratica da parte di tecnici e scienziati effettivamente c'è ma mi preoccupa piu la dittatura di Wall Street che controlla i capitali e indirizza scienziati e tecnologie.

    Che Amazon diventi una banca è una prospettiva terrorizzante, come pure che la mia banca apra un supermercato e distributore dietro casa mia.
    Sarei curiosissimo di sapere come le banche oggi classifichino i loro clienti. Diventermo cinesi con tanto di crediti sociali senza saperlo.

    RispondiElimina