sabato 9 agosto 2025

Da Alexa a Gaza (in risposta a un amico)

 

Le macchine non esistono fuori dalla storia.
E se esistono nella storia, esistono in un’epoca,
e in quell’epoca si decide la relazione tra te e la macchina.

Non è vero che lo sviluppo tecnologico avviene sulla base delle idee che i ricercatori e gli imprenditori elaborano; avviene sulla base dei sistemi politici che lo consentono o che lo negano. La storia di Adriano Olivetti e di Mario Tchou n’è una conferma (l’ho già accennata 12 anni fa). Tirano fuori il primo computer a transistor della storia. Un passo di una fantasia e di una capacità creativa straordinarie. Hanno creato un computer che dava i punti all’IBM.

Questa operazione entra però in conflitto con ... sempre loro. Quelli che nell’agosto di ottant’anni fa fecero centinaia di migliaia di morti con due atomiche che non servivano a nulla salvo per dire ai russi: non ci provate a fare un altro passo verso l’Oriente e l’Europa.

Nel 1960 Olivetti viene trovato morto sul treno che da Milano va in Svizzera, in un vagone vuoto, e nessuno fa un’autopsia. Lo stesso anno Mario Tchou muore in un rocambolesco incidente di cui nessuno ha mai saputo dare una spiegazione. Cosa succede alla Olivetti? Un comitato di garanti dice che si è spinta troppo avanti con questa storia dell’elettronica, e che è meglio dare il settore alla General Electric.

Ora siamo arrivati alla cosiddetta intelligenza artificiale (IA), parliamo di ChatGPT, parliamo di qualcosa che può organizzare meglio una cosa o un’altra, ma parliamo anche di Gaza, di cosa sta avvenendo in terra di Palestina; parliamo delle macchine più distruttive sulla faccia della Terra, utilizzate per massacrare la gente. Questa è l’intelligenza artificiale. È Habsora (ne ho già accennato), una tecnologia organizzata intorno a un archivio di fonti documentarie che Israele costruisce da anni, a partire semplicemente dagli smartphone e da WhatsApp.

Non ti uccido perché sei mio nemico, ma perché ho per bersaglio una persona, e poiché tu gli stai vicino ammazzo anche te, i tuoi figli e tua nonna. Danni collaterali. Quei morti provocati dallo Stato israeliano, sono anche a carico di tutti quelli che hanno detto e continuano a dire che l’occupazione israeliana della Palestina va bene così com’è. Anche a carico di coloro che minimizzano o tacciono, facendo in sostanza da supporto al lavoro di un soldato israeliano a Gaza.

Questo spiega per cui 143 Paesi all’ONU votano per lo Stato di Palestina e nove, tra cui ovviamente Israele e Stati Uniti, si oppongono. Stanno semplicemente dicendo che sono in grado tecnologicamente e geopoliticamente di decidere loro i danni collaterali, il possibile e il non-possibile nella nostra vita, quella di un Paese la cui sovranità esiste solo sulla carta, cari signori dei palazzi romani e delle dimore ombra, che sapete bene degli accordi segreti firmati nel 1954.

Perciò parlare di macchine “intelligenti”, che ci vengono raccontate dal lato soprattutto generativo e non dal lato distruttivo, che si vorrebbero dotate, in prospettiva, di loro una “coscienza”, mi provoca un certo malessere, ma qualcuno deve pure parlarne in termini adeguati, non contro la tecnologia ma con un approccio di consapevolezza, dicendo che le macchine in un simile sistema anzitutto funzionano per realizzare rapporti di dominio e sfruttamento. Per alleggerire il discorso, parto dalla storia di un pappagallo.

Avvicinandomi a un pappagallo, questi potrebbe chiedermi in tono amichevole: “Ciao, come stai?”, dandomi la fugace illusione di essere impegnato in una conversazione ponderata con me. Naturalmente, sappiamo che sta solo ripetendo un suono appreso, senza alcuna comprensione. L’intelligenza artificiale è esattamente un “pappagallo stocastico”, è più o meno ciò che è un modello linguistico di grandi dimensioni. La differenza sta nel fatto che ha memorizzato non poche frasi, ma miliardi, e non le ripete parola per parola, ma le combina in modo plausibile. È ovvio che nel tempo darà risposte sempre più soddisfacenti, perché, come tutte le macchine, si perfezionerà ulteriormente.

Ma il punto non è questo. Il punto è che per far sì che ti dia quella risposta, occorre dire a quelle macchine cosa non va detto, muovendosi dentro margini etici e politici. Per esempio, se quella macchina è stata costruita in un certo contesto geopolitico, che cosa risponderà alla parola “Gaza”? Ci sono mille risposte per non rispondere e mille vincoli politici, religiosi, etici, morali e di altro genere per manipolare la realtà.

In ogni modo si tratta di contesti obbliganti, strutturati, dentro i quali tu transiti e con cui devi fare i conti perché se li riproduci, come ti viene chiesto, come le esigenze quotidiane ti impongono, non fai altro che riprodurre esattamente la logica di potere e la logica del contesto geopolitico. E lo fai felicemente.

Mi richiamo all’esempio del post di un paio di giorni fa: chi si dota di Alexa, per esempio, si dota di un sistema che funziona in relazione alla sua vita. Tu fornisci le tue vibrazioni sonore, individuali, ed entro un minuto Alexa è in grado di duplicare interamente il tuo sistema vocale, e nessuno potrebbe mai contestare che non sei tu ad aver detto quelle cose, perché la duplicazione tecnologica è perfetta. Siamo in un mondo tecnico che non ci appartiene più; è altro, appartiene a chi è padrone di quel sistema.

Quindi la nostra macchina interrogata sembra molto più intelligente di un pappagallo. Adatta la risposta a un pubblico prestabilito così come può adattarla a livello individuale. Tuttavia, in entrambi i casi, quello del pappagallo e della macchina, non c’è alcun pensiero cosciente dietro le parole, nessuna intenzione di comunicare un messaggio originale o alcuna profonda convinzione. Solo dei programmi che gli fanno dire ciò che è più “appropriato” e scartare ciò che viene considerato sconveniente o etichettato come falso.

Siamo arrivati al punto che le cose non hanno più un nome: la guerra la chiamano operazione speciale e l’uso del termine genocidio viene inibito come avesse un copyright.

Ciò non significa che queste IA siano inutili o completamente stupide. Tutt’altro. La loro capacità di mescolare così tanta conoscenza umana permette loro di essere estremamente utili e talvolta persino di arrivare a risultati che non avevamo previsto. Possono elaborare soluzioni o testi originali nella loro forma (attraverso ricombinazioni senza precedenti), che possono dare l’impressione di vera creatività. Ma è essenziale capire che la macchina non pensa come faremmo noi. Non ha un modello interno del mondo, né un ragionamento cosciente o una comprensione del contesto al di fuori delle parole.

L’intelligenza artificiale ha compiuto un balzo in avanti spettacolare nel linguaggio. Modelli giganti, chiamati LLM (Large Language Models), assimilano trilioni di parole da internet, libri, articoli e conversazioni e imparano a predire statisticamente la parola successiva in una frase. Armati di questa colossale conoscenza probabilistica, possono generare testi che sembrano scritti da un essere umano colto, se non addirittura da uno specialista di una determinata materia. È così che l’IA può spiegare l’effetto entanglement, scrivere poesie o dare l’impressione di ragionare su un problema complesso. A prima vista, è sorprendente: nell’era del deep learning chi se non un’intelligenza artificiale potrebbe produrre un saggio coerente su qualsiasi argomento su richiesta?

I modelli odierni prevedono solo la parola successiva in un testo, e sono così bravi che ci ingannano. E a causa della loro immensa memoria, danno l’impressione di ragionare, quando in realtà stanno solo rigurgitando informazioni su cui sono stati addestrati. In altre parole, queste IA sono eccellenti imitatori piuttosto che pensatori veramente originali. Tendiamo a credere che chiunque si esprima con eloquenza e sicurezza debba necessariamente essere intelligente e anche più intelligente di altri (*).

Negli esseri umani, questo è spesso vero (linguaggio articolato e pensiero complesso vanno di pari passo). Una macchina può manipolare il linguaggio senza comprendere. Si può manipolare il linguaggio senza essere intelligenti, che è esattamente ciò che dimostrano gli LLM e in genere i politici. Si tratta solo dell’eco dell’intelligenza.

Quando ci troviamo di fronte a IA generative, si pensa che un’IA stia fornendo una risposta con grande intuizione, quando in realtà ciò che si sente è solo un’eco di cose già dette in precedenza dagli esseri umani. In altre parole, si pensa che sia intelligente, ma la si scambia per gli sforzi intellettuali di menti umane del presente e del passato e si interpreta quell’eco come la voce orgogliosa dell’IA.

Consideriamo un semplice esempio: se chiedete a un modello linguistico di grandi dimensioni: “Cosa succede se ruoto la lettera D di 90° e la posiziono sopra la lettera J”, potrebbe rispondere: “Forma un ombrello”. Incredibile, sta visualizzando mentalmente delle lettere e deducendone una forma concreta! In effetti, questo enigma è un classico, riproposto più volte nella letteratura enigmistica.

È probabile che l’IA abbia visto esattamente questa domanda e risposta durante il suo addestramento, o almeno un numero sufficiente di varianti per ricavarne lo schema. La nostra meraviglia deriva dalla nostra ignoranza di questa storia precedente: pensiamo che l’IA sia creativa, quando in realtà è solo erudita. Questa è la differenza tra scoprire una soluzione e semplicemente memorizzarla senza conoscerla. Ciò che percepiamo come un lampo di intelligenza da parte della macchina è semplicemente un’eco dell’intelligenza umana passata.

Lo stesso vale quando vediamo ChatGPT superare con successo compiti complessi come test di matematica o di giurisprudenza. Data l’enorme quantità di testi che ha “letto”, molto probabilmente ha già visto risolvere problemi simili dagli esseri umani. E anche se non fosse esattamente così, ha individuato così tanti schemi da poter generalizzare delle varianti. In effetti, questi modelli sono eccellenti statistici del linguaggio: tracciano correlazioni tra frasi e idee, senza avere la minima idea di cosa significhino nel mondo reale.

La macchina non ha bisogno di capire che un ombrello protegge dalla pioggia; deve solo aver imparato che le parole “D sopra J” compaiono spesso vicino alla parola “ombrello” in un corpus. È un gigantesco gioco di associazioni automatiche.

Inoltre, non appena spingiamo queste IA un po’ oltre i loro limiti, l’illusione si incrina: a volte generano errori assurdi, possono contraddirsi, fare affermazioni incoerenti se usciamo dai sentieri battuti dei loro dati di addestramento. Questo ci ricorda che non sanno quello che dicono, nel senso che noi umani lo capiamo e loro no.

Sono incredibilmente brave queste AI a produrre risposte che sembrano plausibili, ma non sono necessariamente vere o significative. Tutte queste prestazioni impressionanti sono in realtà solo un’ottimizzazione statistica, senza comprendere perché le cose siano come sono: non hanno ancora raggiunto il traguardo di una vera intelligenza generale. Quanto a una coscienza, fosse quella del mio cane, non la raggiungeranno mai.

E questo l’ho già spiegato in precedenza: l’essenza umana, che non è un’astrazione inerente al singolo individuo, è nella sua realtà l’insieme dei rapporti sociali (vedi VI Tesi su Feurebach). La coscienza umana non è una qualità immediata dell’individuo, perciò il processo di appropriazione si ottiene nel corso dello sviluppo dei rapporti reali del soggetto col mondo. Questi rapporti dipendono non dal soggetto, non dalla sua coscienza, ma sono determinati dalle concrete condizioni storiche e sociali nelle quali egli vive.

Viceversa, le macchine, per quanto dotate di istruzioni e informazioni, per quanto comunichino tra loro, per quanto siano il mezzo più sviluppato del controllo sociale, non hanno rapporti sociali, né alcun rapporto reale col mondo perché ontologicamente incapaci di sviluppare un’autentica empatia con l’essere umano o con qualsiasi altro essere animale.

Vedere una macchina padroneggiare il linguaggio con tanta abilità, dopo che il linguaggio articolato è stato a lungo appannaggio della mente umana e dell’esistenza naturale delle nostre comunità, offusca i nostri punti di riferimento. Ma per capire perché questa padronanza rimanga superficiale, dobbiamo scavare in ciò che a queste IA manca e mancherà per sempre per pensare come noi, e che solo per un aspetto riguarda quella modalità di pensiero lenta, deliberata, logica e cosciente che caratterizza la parte più riflessiva dell’intelligenza umana.

Una macchina, per quanto sofisticata, incorpora nelle sue probabilità verbali il modo in cui gli umani usano il linguaggio quando pensano. Il risultato è che può riproporre una catena coerente di argomentazioni, dando l’impressione di farlo. Ma in realtà non capisce cosa sta “pensando”. Eseguire un programma (per quanto sofisticato) non è sinonimo di comprensione. Anche la più perfetta simulazione del pensiero non è il pensiero stesso. In altre parole, imitare un comportamento intelligente non implica che ci sia intelligenza all’opera.

Ora, si vuole dotare l’IA di capacità di elaborazione più vicine al pensiero umano, ad esempio, integrando moduli di logica formale, consentendo all’IA di “porsi domande” prima di rispondere (una tecnica di ragionamento a catena che costringe il modello a spiegare un ragionamento passo dopo passo), fino a combinare la capacità di memorizzazione del deep learning con il rigore logico dell’apprendimento simbolico.

Le macchine cosiddette intelligenti non possiedono funzioni psichiche e forme complesse culturali del comportamento, con tutte le caratteristiche funzionali e strutturali ad esse proprie. Per spiegare lo sviluppo storico del comportamento e del pensiero non si può ignorare la natura storico-sociale di questo processo, nei mutamenti profondi delle funzioni psichiche superiori, che di fatto costituiscono il contenuto dello sviluppo culturale del comportamento umano.

«Nel processo di sviluppo storico non sono tanto cambiate le funzioni psicofisiologiche elementari, quanto profondamente e totalmente sono invece mutate le funzioni superiori (pensiero verbale, memoria logica, formazione dei concetti, attenzione volontaria, volontà e via di seguito).» (Lev Vigotskij, St. dello sviluppo delle funz. psichiche superiori, Giunti-Barbera, p. 66).

Oggi vediamo quadri “dipinti” da algoritmi, musica “composta” dall’IA, articoli o testi “scritti” da macchine. Dovremmo vedere questo come l’alba di una creatività artificiale che supera quella umana? O è ancora solo una forma elaborata di riciclo? Dopotutto, la creatività umana stessa consiste spesso nel ricombinare influenze passate. Perché l’IA non potrebbe essere definita creativa se fa la stessa cosa su larga scala?

Le nostre opere sono fatte di esperienze accumulate. La differenza, sta nel fatto che il creatore umano vive e comprende ciò che sta trasformando, e può volontariamente discostarsi dalle proprie influenze, avere un’intenzione dietro il proprio lavoro. L’intenzione, lo scopo, è molto importante, ma l’IA non ha alcuna intenzione propria. Non cerca di significare nulla con il suo lavoro. È questo, mi rendo conto, un discorso che andrebbe sviluppato.

L’IA è confinata nello spazio delle possibilità già esplorate dall’umanità e registrate nei suoi dati. Può navigare in questo spazio prodigiosamente, cercando ai margini associazioni improbabili (ed è anche per questo che a volte sorprende, combinando idee che pochi umani avrebbero pensato di collegare). Ma non ha accesso al vero ignoto.

Detto questo, non possiamo escludere del tutto la possibilità che un giorno si verifichi l’emergere di comportamenti creativi più profondi. Dopotutto, se costruissero IA capaci di avere una qualche forma di motivazione (simulata), forse assisteremo all’emergere di una creatività aliena che non assomiglia alla nostra ma produce vere e proprie novità. Questo sarebbe allora il segno che abbiamo compiuto un passo verso una intelligenza artificiale più evoluta tecnologicamente. Ma non potrà mai avere il senso del mondo reale.

Ad ogni modo, siamo sull’orlo di un abisso, ma non per colpa dell’AI e di altre tecnologie. Anche per colpa nostra. Spetta a noi decidere come andare avanti, ma intanto non dobbiamo rimanere in silenzio e quantomeno chiederci urgentemente dove siamo posizionati su quel bordo e in quale direzione muovere per non finirci dentro.

(*) Questo il vantaggio dell’uomo istruito su un uomo non istruito, parlando sulle generali. Questo il vantaggio, la supremazia di secoli, dell’uomo bianco su tutti gli altri. Di una classe sociale sulle altre. Da ciò la pretesa e convinzione di superiorità.

9 commenti:

  1. Corretta la diagnosi attuale, che così sommarizzerò: IA non è creativa, quindi non fa concorrenza all'uomo. Però negare il futuro sviluppo di completa umanizzazione della IA ha implicazioni religiose, ossia implica la fede nella non riproducibilità di quella scena rappresentata da Michelangelo con le dita di Dio e Adamo che si avvicinano.
    Delle due l'una: o siamo darwinisti, e quindi pensiamo che lo stacco dalla materia incosciente a quella cosciente sia avvenuto con un processo naturale, e quindi riproducibile; oppure siamo religiosi, e pensiamo a un processo soprannaturale, che la tecnologia non potrà mai riprodurre.
    Personalmente appartengo alla prima categoria. Questo non significa che mi piaccia immaginare uno sviluppo tipo Asimov. No, non mi place per niente, e mi consolo pensando che sia ancora lontano e quindi io non lo vedrò.

    RispondiElimina
    Risposte
    1. Darwin parla di materia vivente, non di macchine che la simulano

      Elimina
  2. claudio della volpe9 agosto 2025 alle ore 09:53

    la definizione di pappagallo stocastico o stocastic parrot è stata coniata per la prima volta nell'articolo "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?" 🦜 di Bender, Timnit Gebru , Angelina McMillan-Major e Margaret Mitchell nel 2021 (https://dl.acm.org/doi/10.1145/3442188.3445922). Gebru era stata appena licenziata da Google; era co-leader del team di Intelligenza Artificiale Etica di Google, ed è stata licenziata da Google all'inizio di dicembre 2020. Il licenziamento è avvenuto dopo che Gebru aveva inviato una mail ai colleghi in cui criticava l'azienda e contestava la gestione della ricerca sull'IA. E' una definizione che uso sempre per criticare l'IA e dunque sono d'accordo con Olympe. Tuttavia credo che il salto di qualità sia possibile unendo la tecnologia biologica e quella inorganica ; oggi è possibile crescere organelli fatti di cellule nervose, minicervelli biologici che possono interagire tranquillamente con quelli inorganici; aggiungo che come ho già scritto altrove esistono società animali che hanno un linguaggio e una storia; dunque la situazione I GENERALE è più complessa. Dunque quel che ha scritto Olympe mi pare giusto, anche se non completo.

    RispondiElimina
    Risposte
    1. Mi permetto richiamare la tua attenzione sui stramaledetti rapporti sociali. È una delle chiavi di tutto.
      Non esiste altro animale, oltre l'uomo, in grado di sviluppare e poi trasmettere alla prole un linguaggio extragenetico.

      Elimina
    2. Darwin ha visto meno cose di me, ma non per colpa sua. Anche Michelangelo, se no avrebbe collegato Dio e Adamo via web.

      Elimina
    3. non sono d'accordo su questo; è stato dimostrato che pappagalli, cetacei, scimmie e alcuni uccelli come i corvi possoo trasmettere il linguaggio alla prole E la cosa è stata dimostrata usando segni e suoni introdotti dall'esterno, non genetici; esistono perfino dialettti regionali dei cetacei trasmessi da una generazione all'altra tramite imitazione; come ti dicevo quello che hai scritto è giusto ma incompleto; però le differenze ci sono concordo; per esempio nella direzione che supporti tu c'è questo lavoro qua: https://pmc.ncbi.nlm.nih.gov/articles/PMC8018278/ che batte proprio sulla stessa questione The evolution of language may have only become possible when the posited unique suite of prosocial, communicative and mind-reading adaptations were in place. The crucial importance of communication in the strongly interdependent social system of early humans would have created this prosocial suite of adaptations, and would have laid the groundwork for evolving a true language.

      Elimina
    4. suoni introdotti dall'esterno, non genetici
      certo, ma non si tratta di produzione di un linguaggio extragenetico

      Elimina
  3. "... nel tempo darà risposte sempre più soddisfacenti, perché, come tutte le macchine, si perfezionerà ulteriormente…" - le macchine le ha sempre perfezionate l'uomo, non si sono mai perfezionate da sé - con queste di cui stai parlando - è un piacere leggerti - accade, se non erro, che dopo l'input umano a farlo si può dire alla lettera che sono loro a perfezionarsi, secondo processi sui quali possiamo solo fare congetture

    "... differenza tra scoprire una soluzione e semplicemente memorizzarla senza conoscerla…" - il cosiddetto "test della stanza cinese" è stato indicativo in tal senso - ma non lo so riferire bene e brevemente

    «Nel processo di sviluppo storico non sono tanto cambiate le funzioni psicofisiologiche elementari, quanto profondamente e totalmente sono invece mutate le funzioni superiori (pensiero verbale, memoria logica, formazione dei concetti, attenzione volontaria, volontà e via di seguito).» Lev Vigotskij - !!!! chi si rilegge! - qui sento odor di casa, anche se spesso ti sento fare discorsi che non ho mai capito se li ho mai capiti ma credo di no e tuttavia sono voci riconosciute e rassicuranti - questa affermazione del grande Vigotskij si può forse integrare con quanto studiato successivamente sulle modificazioni biologiche strutturali del SNC in seguito agli apprendimenti precoci - modificazione molto probabilmente non trasmissibili come tutte quelle successive alla nascita per apprendimento, ma mi pare che non venga più esclusa categoricamente la possibilità di una forma di trasmissione.

    RispondiElimina
    Risposte
    1. Conosco il test della stanza cinese (che a me non dice granché), ma è un po' lungo da spiegare e il post è già troppo lungo

      Elimina