giovedì 7 agosto 2025

Grazie, Alexa

 

La scorsa settimana e ieri pomeriggio mi sono capitati due fatti che mi hanno fatto riflettere: in un negozio la proprietaria parlava con Alexa (un dispositivo) come si trattasse di una persona. Ieri è successo a me con una assistente vocale. A un certo punto, m’è sfuggito un “grazie”. Com’è possibile accadano queste cose? (*)

Possiamo essere facilmente ingannati da una macchina quando imita abbastanza bene un comportamento intelligente. Ma cosa c’è in noi che ci fa vedere una coscienza dove c’è solo un meccanismo? Per capirlo, diamo un’occhiata alla nostra tendenza ad antropomorfizzare le macchine.

Nel 1997, la super intelligenza scacchistica di IBM, Deep Blue, affrontò il campione Garry Kasparov. Durante la partita, il computer fece una mossa così inaspettata e strategica che disorientò Kasparov. Era convinto di aver individuato una qualche forma di ragionamento superiore o di intervento umano dietro questa mossa “eccessivamente” intelligente. La realtà era molto più banale: la mossa brillante era il risultato di un problema di software. Incapace di decidere una mossa, Deep Blue aveva giocato una mossa casuale, che Kasparov interpretò come un gesto di intelligenza machiavellica.

Nel 1966, al MIT, l’informatico Joseph Weizenbaum creò ELIZA, uno dei primi chatbot della storia. ELIZA si atteggiava a psicoterapeuta rogersiano: riformulando le frasi dell’utente come domande “Ti sento, parlami di tua madre ...”, il programma dava l’illusione di ascoltare e capire. Weizenbaum aveva progettato ELIZA come una parodia volta a mostrare la superficialità degli scambi uomo-macchina.

Con sua grande sorpresa, molti utenti presero ELIZA sul serio. La sua stessa segretaria, dopo alcuni minuti di conversazione con il programma, chiese a Weizenbaum di lasciare la stanza per il suo colloquio privato con ELIZA! Il ricercatore rimase stupito dalla facilità con cui un software così limitato potesse avere umanizzato l’illusione di comprensione. Questa reazione inaspettata ha dato il nome all’”effetto ELIZA”, che descrive la nostra tendenza a equiparare inconsciamente il comportamento del computer al comportamento umano quando il computer adotta l’aspetto dell’interazione umana.

Tendiamo ad attribuire caratteristiche umane – emozioni, intenzioni, personalità – alle macchine non appena assumono in qualche modo un comportamento sociale. Ad esempio, i media e il pubblico in generale parlano del chatbot ChatGPT come se pensasse e volesse qualcosa, perché risponde in modo molto fluente nel linguaggio umano.

In realtà, ChatGPT predice solo la probabile parola successiva in una frase utilizzando enormi database di testo. Ma più le sue risposte imitano il linguaggio umano, più è allettante attribuirgli qualità umane come emozioni o una volontà propria. Le nostre stesse parole tradiscono questa inclinazione, fino a farci dire o pensare “ha deciso di rifiutare la mia richiesta” o “questo robot capisce cosa sto dicendo”, quando in realtà dietro ci sono solo calcoli privi di coscienza.

Di fronte a una tecnologia nuova e complessa, immaginarla funzionare come un essere umano ci rassicura, perché la rende più prevedibile ai nostri occhi. Attribuire una personalità o delle intenzioni ad Alexa o altri dispositivi simili è un modo per addomesticare la tecnologia, conferendole caratteristiche familiari. Inoltre, spesso riflette anche la limitata comprensione del pubblico sul funzionamento effettivo di questi sistemi. In breve, diamo un volto umano alla scatola nera per accettarla meglio nella nostra vita quotidiana.

Questa tendenza profondamente umana è radicata nella nostra psicologia. Il nostro cervello è costantemente alla ricerca di significato, schemi e coerenza, a volte anche dove non ce ne sono. È intuitivo e sopprime l’ambiguità, sceglie la versione più significativa della realtà. Questo è un vantaggio per dare un senso al mondo, ma ci gioca brutti scherzi.

Proprio come vediamo forme familiari nelle nuvole (un volto, un animale) puramente percettive, vediamo uno “spirito” familiare in un chatbot scherzoso o in un robot sorridente. Il nostro cervello impone una storia coerente a un comportamento, anche se ciò significa colmare le lacune con l’immaginazione. L’antropomorfismo ne è un esempio: di fronte a pochi segnali (una voce sintetica che dice “ciao”, un testo che usa la parola “io”), attiviamo spontaneamente i nostri schemi sociali e rispondiamo alla macchina come se fosse dotata di intenzioni o coscienza.

Nonostante tutti i nostri progressi informatici (ma proprio per questo!), siamo ancora inclini a queste proiezioni. Molte persone hanno provato una fitta al cuore quando hanno sentito per la prima volta la voce dolce di un assistente vocale, o si sono rivolte ad Alexa educatamente (“per favore “, “grazie”) come se si trattasse di una persona. Ci sentiamo persino tristi quando adottano un tono triste o si rifiutano di rispondere, a dimostrazione del fatto che l’illusione emotiva funziona.

Ancora più preoccupante, alcune persone oggi stanno sviluppando veri e propri legami emotivi con gli agenti conversazionali. Abbiamo visto di questi dispositivi fungere da confidenti virtuali, al punto che l’attaccamento dell’utente è molto reale, anche se l’”amicizia” da parte del dispositivo è ovviamente una finzione. I nostri sentimenti possono essere intrappolati dall’illusione tanto quanto le nostre menti.

Non significa essere ingenui o stupidi. È una conseguenza del funzionamento della nostra cognizione sociale. Siamo programmati per rilevare agenti, intenzioni, ovunque intorno a noi. Quando un’entità non umana si comporta anche solo vagamente come un essere umano, il nostro primo istinto è percepirla come tale.

Il problema è che più l’IA diventa sofisticata, più convincente diventa l’illusione. I primi chatbot come ELIZA erano relativamente facili da individuare dopo alcune conversazioni ripetitive. Ma i modelli attuali, possono sostenere una conversazione complessa per lungo tempo senza commettere errori linguistici evidenti. Diventa quindi naturale, nella foga del momento, dimenticare la natura meccanica dell’altra “persona”.

Il nostro cervello sociale è in modalità pilota automatico. Questo è affascinante perché rivela fino a che punto linguaggio e comportamento siano sufficienti a suggerire “intelligenza”. Il Test di Turing, ideato nel 1950: se una macchina riesce a sostenere una conversazione indistinguibile da quella di un essere umano, allora è considerata “pensante”. È solo un’imitazione priva di coscienza, ma l’effetto su di noi è praticamente lo stesso.

Ritornerò sull’argomento.

(*) Con l’esigenza dell’esercito di avere a disposizione una notevole potenza di calcolo, gli esperimenti per costruire un calcolatore digitale accelerarono durante la Seconda Guerra Mondiale, ma rimasero insoddisfacenti. Alla fine del conflitto, un certo John Neumann (1903-1957), avrebbe fatto compiere un grande balzo in avanti. Nato a Budapest col nome di János Lajos, si rivelò presto un bambino molto dotato: all’età di 6 anni, imparava a memoria i libri, ripetendo all’istante intere pagine di elenco telefonico che gli erano state mostrate solo per pochi istanti o eseguendo rapidamente a mente divisioni con due numeri da otto cifre.

Da Wikipedia: «John von Neumann è stato una delle menti più brillanti e straordinarie del secolo scorso. Insieme con Leó Szilárd, Edward Teller ed Eugene Wigner faceva parte del “clan degli ungheresi” ai tempi di Los Alamos e del Progetto Manhattan. Oltre a essere ungheresi, tutti e quattro erano ebrei».

I creatori dell’informatica erano matematici o fisici, tutti più o meno autistici e con evidenti fisse ideologiche: anche Janos maturò la convinzione che gli aspetti economici e sociali e le relazioni tra individui potessero essere trattati in termini matematici.

Leggo da Wikipedia che fu Neumann a suggerire come lanciare la bomba atomica a Nagasaki per creare il maggior numero di danni e di morti. Si spinse oltre, proponendo alle autorità militari di bombardare preventivamente con armi nucleari l’Unione Sovietica per scongiurare il pericolo rosso. La sua teoria dei giochi fu utilizzata in questo contesto per studiare e ipotizzare tutti i possibili scenari bellici che si possono sviluppare in seguito a certe decisioni.

Ognuno segue il proprio destino, come ebbe a dire la mamma di Forrest Gump: probabilmente furono le radiazioni dei numerosi test atomici ai quali Neumann assistette a condannarlo a morte.

Nel 1948, Alan Turing lavorava all’Università di Manchester su uno dei primi computer commerciali, il Manchester Mark I. Turing consigliava ai giovani ingegneri di programmare la macchina come un bambino che impara, non come un adulto che sa già molto.

Nel 1950, Turing scrisse un articolo fondamentale: Computing Machinery and Intelligence, che gettò le basi per quella che non era ancora chiamata intelligenza artificiale. Egli credeva che entro il 2000 avremmo avuto macchine dotate di un comportamento intelligente indistinguibile dal ragionamento umano.

Arriviamo al 1956. Quell’estate si tiene al Dartmouth College nel New Hampshire una conferenza fondativa: il Dartmouth Summer Research Project sull’Intelligenza Artificiale. Si affermò che la conferenza avrebbe dovuto “procedere sulla base della congettura che ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza possa, in linea di principio, essere descritto con tale precisione che si possa realizzare una macchina in grado di simularlo”.

17 commenti:

  1. Essere educati a prescindere non mi sembra grave, basta avere ben chiaro con chi si ha a che fare.
    E poi non si sa mai come andrà a finire. Quando le AI verranno a sterminarci potrebbe fare la differenza: https://www.reddit.com/r/ChatGPT/comments/1jqa1mt/dont_forget_thank_you/#lightbox

    Io ringrazio il bancomat e i caselli autostrdali, e poi insulto il gatto ma solo per invidia del suo status in casa mia.

    Eliza lo facvo girare sul C64 nei primi anni 80.

    RispondiElimina
  2. Sollevi una questione che si trascina da decenni, qual'è la definizione formale di "intelligenza"? Ma sopratutto, ammesso e non concesso si arrivi a creare una "scatola nera" le cui risposte siano sempre, in qualsiasi caso, contesto ed eventualità possibile, indistinguibili da quelle di un essere umano perchè non definirla "intelligente"?
    Non credo vi sia una risposta univoca.

    RispondiElimina
  3. https://ilsimplicissimus2.com/2025/08/02/ia-ero-morto-da-secoli-e-non-me-ne-sono-accorto/

    RispondiElimina
  4. Bellissimo post, grazie. Un particolare del tutto secondario, anzi, di meno nel contesto del discorso:"... ELIZA si atteggiava a psicoterapeuta rogersiano: riformulando le frasi dell’utente come domande “Ti sento, parlami di tua madre ...” - non è tanto rogersiana una frase così - un rogersiano non dice: parlami di tua madre - l'altro lo fa di suo se gli viene di farlo. Né tantomeno dice: ti sento. Se è vero, l'altro se ne accorge.

    RispondiElimina
  5. A proposito di macchine intelligenti.
    Non sono un matematico quindi non sono molto sicuro di quello che sto per scrivere, però....
    ...prendiamo un foglio di carta A4, in media ci stanno 60 caratteri su una riga,
    I caratteri, compresa un po' di punteggiatura sono un trentina.
    Per una sola riga tutte le combinazioni possibili sono 30^60, in potenze di 10 sono circa 4,3x10^88
    Per avere un'idea del numero, leggo su Internet che "Gli scienziati stimano che ci siano circa 10^80 atomi nell'universo. Alcune stime indicano che nel universo osservabile ci sono circa 10^82 atomi.
    Insomma siamo quasi nello stesso ordine di grandezza.
    Se avessimo a disposizione un computer di potenza adeguata potremmo leggere su quella riga le quotazioni di borsa di domani ma soprattutto quello che scriverà Olympe nei prossimi giorni. :)

    RispondiElimina
  6. Insomma queste macchine sarebbero l'ultima versione degli idoli della bibbia, materiale inerte a cui gli idolatri attribuiscono un'anima che non hanno, a differenza del dio vivente. Tutto sta nel concetto che si ha di coscienza: se è il risultato delle varie funzioni neurologiche (o neuroniche? neuronali? boh!), allora la tecnica la può replicare.
    Pietro

    RispondiElimina
    Risposte
    1. Mai detto che sono "materiale inerte" (nemmeno un martello è materiale inerte, ma uno strumento di lavoro, e persino un sasso può, nelle mani dell'uomo assumere una funzione attiva).
      Il tuo mi sembra, scusa se te lo dico, un materialismo esposto al naturalismo. Quanto alla coscienza umana, essa è una commistione di natura e società laddove nell'uomo evoluto prevale l'aspetto sociale

      Elimina
    2. No, tutt'altro! :) In realtà la penso più o meno come te, avrei dovuto aggiungere "ma io non credo" alla fine e usare un tono diverso. Mi hai fatto venire in mente l'idolatria e la facilità ad umanizzare le cose di cui soffriamo. Gli animali, e ancor più l'uomo, e le macchine saranno sempre esseri differenti. Basti pensare allo spirito di sacrificio (l'individuo che si sacrifica per il gruppo o la prole) o di sopravvivenza. Cose inconoscibili per un essere la cui essenza può essere comodamente reinstallata in un hardware differente.
      Pietro

      Elimina
    3. 😊
      Tutto dipende da che cosa gli apprendisti stregoni vogliono far credere alla macchina.
      La vicenda di HAL 9000 nel film porta fuori strada. Kubrik era sotto l'influenza di teorie che smontiamo ancora oggi e chissà per quanto tempo ancora.

      Elimina
  7. Mi riservo un successivo intervento sulla sostanza teoretica del post, ma qui mi limiterei a considerare il punto in cui lei, adorabile amica, scrive che, "incapace di decidere una mossa, Deep Blue aveva giocato una mossa casuale". Senza alcun dubbio, lei si riferisce alla 37a mossa del secondo incontro della sfida Kasparov-Deep Blue, dove il bianco (Deep Blue) giocò Ae4. Tutt'altro che "mossa casuale", direi: in e4 l'alfiere del bianco bloccava l'avanza del pedone nero in e5 e, soprattutto, chiudeva la diagonale b8-h2, che era la sola speranza per il nero (Kasparov) per ridare una posizione attiva alla sua Regina, costretta a reggere, insieme, la difesa del suo alfiere-campo-nero in d6 e la minaccia di scambio tra le torri col supporto della Regina del bianco. Per questo, io mi azzarderei a credere che, se la mossa gettò nello sgomento il povero Kasparov, che di lì a qualche mossa abbandonò per manifesta impossibilità a forzare la messa in sicurezza operata da Deep Blue, fu proprio per aver capito che la mossa non era affetto "casuale", ma fondata su un calcolo estremamente profondo. E qui, a premessa di ciò che mi riservo di aggiungere nel commento che ho preannunciato, c'è da considerare con grande attenzione lo sconcerto di Kasparov dovuto al sospetto che dietro la macchina ci fosse un'intelligenza umana a guidarla: Kasparov aveva intravvisto dietro la macchina quell'intelligenza che era della macchina. In sostanza, senza riuscire a considerarlo possibile, aveva fatto i conti col fatto che la macchina aveva qualcosa di umano. Della qual cosa anche oggi molti si ostinano a credere impossibile. Sarà sicuramente perché il mio bieco scientismo è stato diabolicamente contaminato dal pensiero di Foucault, ma io non sono tra costoro: Alexa merita il suo "grazie ", cara amica; non glielo ha estorto ingannandola, ma lo ha estratto dalla suoi ben noti - e cari a noi tutti suoi lettori affezionati - antirazzismo e antischiavismo.

    RispondiElimina
    Risposte
    1. Caro Dottore, i commenti sono sempre accolti con entusiasmo (mi sembra la parola adatta). L'inserimento del riferimento a kasparov non è stato casuale. Effettivamente la mossa del computer non fu casuale ma calcolata dal suo data base. Dunque mi permetta d'insistere: solo questione di calcolo, l'intelligenza conta nulla, meno ancora una coscienza. Del resto, come preventivato, solo un giocatore di scacchi curioso come lei poteva approfondire un esempio che aveva solo uno scopo "attrattivo". A presto, spero.

      Elimina
  8. I "SUOI" commenti in particolare, volevo dire

    RispondiElimina
    Risposte
    1. dimenticavo la cosa più importante: sarebbe oltremodo interessante scrivessi sull'argomento anche nel tuo blog, sicuramente con un dibattito più vario che nel mio

      Elimina
  9. Risposte
    1. ma che dici, è un bel regalo. domani cercherò di risponderti con un post.

      Elimina