sabato 9 agosto 2025

Da Alexa a Gaza (in risposta a un amico)

 

Le macchine non esistono fuori dalla storia.
E se esistono nella storia, esistono in un’epoca,
e in quell’epoca si decide la relazione tra te e la macchina.

Non è vero che lo sviluppo tecnologico avviene sulla base delle idee che i ricercatori e gli imprenditori elaborano; avviene sulla base dei sistemi politici che lo consentono o che lo negano. La storia di Adriano Olivetti e di Mario Tchou n’è una conferma (l’ho già accennata 12 anni fa). Tirano fuori il primo computer a transistor della storia. Un passo di una fantasia e di una capacità creativa straordinarie. Hanno creato un computer che dava i punti all’IBM.

Questa operazione entra però in conflitto con ... sempre loro. Quelli che nell’agosto di ottant’anni fa fecero centinaia di migliaia di morti con due atomiche che non servivano a nulla salvo per dire ai russi: non ci provate a fare un altro passo verso l’Oriente e l’Europa.

Nel 1960 Olivetti viene trovato morto sul treno che da Milano va in Svizzera, in un vagone vuoto, e nessuno fa un’autopsia. Lo stesso anno Mario Tchou muore in un rocambolesco incidente di cui nessuno ha mai saputo dare una spiegazione. Cosa succede alla Olivetti? Un comitato di garanti dice che si è spinta troppo avanti con questa storia dell’elettronica, e che è meglio dare il settore alla General Electric.

Ora siamo arrivati alla cosiddetta intelligenza artificiale (IA), parliamo di ChatGPT, parliamo di qualcosa che può organizzare meglio una cosa o un’altra, ma parliamo anche di Gaza, di cosa sta avvenendo in terra di Palestina; parliamo delle macchine più distruttive sulla faccia della Terra, utilizzate per massacrare la gente. Questa è l’intelligenza artificiale. È Habsora (ne ho già accennato), una tecnologia organizzata intorno a un archivio di fonti documentarie che Israele costruisce da anni, a partire semplicemente dagli smartphone e da WhatsApp.

Non ti uccido perché sei mio nemico, ma perché ho per bersaglio una persona, e poiché tu gli stai vicino ammazzo anche te, i tuoi figli e tua nonna. Danni collaterali. Quei morti provocati dallo Stato israeliano, sono anche a carico di tutti quelli che hanno detto e continuano a dire che l’occupazione israeliana della Palestina va bene così com’è. Anche a carico di coloro che minimizzano o tacciono, facendo in sostanza da supporto al lavoro di un soldato israeliano a Gaza.

Questo spiega per cui 143 Paesi all’ONU votano per lo Stato di Palestina e nove, tra cui ovviamente Israele e Stati Uniti, si oppongono. Stanno semplicemente dicendo che sono in grado tecnologicamente e geopoliticamente di decidere loro i danni collaterali, il possibile e il non-possibile nella nostra vita, quella di un Paese la cui sovranità esiste solo sulla carta, cari signori dei palazzi romani e delle dimore ombra, che sapete bene degli accordi segreti firmati nel 1954.

Perciò parlare di macchine “intelligenti”, che ci vengono raccontate dal lato soprattutto generativo e non dal lato distruttivo, che si vorrebbero dotate, in prospettiva, di loro una “coscienza”, mi provoca un certo malessere, ma qualcuno deve pure parlarne in termini adeguati, non contro la tecnologia ma con un approccio di consapevolezza, dicendo che le macchine in un simile sistema anzitutto funzionano per realizzare rapporti di dominio e sfruttamento. Per alleggerire il discorso, parto dalla storia di un pappagallo.

Avvicinandomi a un pappagallo, questi potrebbe chiedermi in tono amichevole: “Ciao, come stai?”, dandomi la fugace illusione di essere impegnato in una conversazione ponderata con me. Naturalmente, sappiamo che sta solo ripetendo un suono appreso, senza alcuna comprensione. L’intelligenza artificiale è esattamente un “pappagallo stocastico”, è più o meno ciò che è un modello linguistico di grandi dimensioni. La differenza sta nel fatto che ha memorizzato non poche frasi, ma miliardi, e non le ripete parola per parola, ma le combina in modo plausibile. È ovvio che nel tempo darà risposte sempre più soddisfacenti, perché, come tutte le macchine, si perfezionerà ulteriormente.

Ma il punto non è questo. Il punto è che per far sì che ti dia quella risposta, occorre dire a quelle macchine cosa non va detto, muovendosi dentro margini etici e politici. Per esempio, se quella macchina è stata costruita in un certo contesto geopolitico, che cosa risponderà alla parola “Gaza”? Ci sono mille risposte per non rispondere e mille vincoli politici, religiosi, etici, morali e di altro genere per manipolare la realtà.

In ogni modo si tratta di contesti obbliganti, strutturati, dentro i quali tu transiti e con cui devi fare i conti perché se li riproduci, come ti viene chiesto, come le esigenze quotidiane ti impongono, non fai altro che riprodurre esattamente la logica di potere e la logica del contesto geopolitico. E lo fai felicemente.

Mi richiamo all’esempio del post di un paio di giorni fa: chi si dota di Alexa, per esempio, si dota di un sistema che funziona in relazione alla sua vita. Tu fornisci le tue vibrazioni sonore, individuali, ed entro un minuto Alexa è in grado di duplicare interamente il tuo sistema vocale, e nessuno potrebbe mai contestare che non sei tu ad aver detto quelle cose, perché la duplicazione tecnologica è perfetta. Siamo in un mondo tecnico che non ci appartiene più; è altro, appartiene a chi è padrone di quel sistema.

Quindi la nostra macchina interrogata sembra molto più intelligente di un pappagallo. Adatta la risposta a un pubblico prestabilito così come può adattarla a livello individuale. Tuttavia, in entrambi i casi, quello del pappagallo e della macchina, non c’è alcun pensiero cosciente dietro le parole, nessuna intenzione di comunicare un messaggio originale o alcuna profonda convinzione. Solo dei programmi che gli fanno dire ciò che è più “appropriato” e scartare ciò che viene considerato sconveniente o etichettato come falso.

Siamo arrivati al punto che le cose non hanno più un nome: la guerra la chiamano operazione speciale e l’uso del termine genocidio viene inibito come avesse un copyright.

Ciò non significa che queste IA siano inutili o completamente stupide. Tutt’altro. La loro capacità di mescolare così tanta conoscenza umana permette loro di essere estremamente utili e talvolta persino di arrivare a risultati che non avevamo previsto. Possono elaborare soluzioni o testi originali nella loro forma (attraverso ricombinazioni senza precedenti), che possono dare l’impressione di vera creatività. Ma è essenziale capire che la macchina non pensa come faremmo noi. Non ha un modello interno del mondo, né un ragionamento cosciente o una comprensione del contesto al di fuori delle parole.

L’intelligenza artificiale ha compiuto un balzo in avanti spettacolare nel linguaggio. Modelli giganti, chiamati LLM (Large Language Models), assimilano trilioni di parole da internet, libri, articoli e conversazioni e imparano a predire statisticamente la parola successiva in una frase. Armati di questa colossale conoscenza probabilistica, possono generare testi che sembrano scritti da un essere umano colto, se non addirittura da uno specialista di una determinata materia. È così che l’IA può spiegare l’effetto entanglement, scrivere poesie o dare l’impressione di ragionare su un problema complesso. A prima vista, è sorprendente: nell’era del deep learning chi se non un’intelligenza artificiale potrebbe produrre un saggio coerente su qualsiasi argomento su richiesta?

I modelli odierni prevedono solo la parola successiva in un testo, e sono così bravi che ci ingannano. E a causa della loro immensa memoria, danno l’impressione di ragionare, quando in realtà stanno solo rigurgitando informazioni su cui sono stati addestrati. In altre parole, queste IA sono eccellenti imitatori piuttosto che pensatori veramente originali. Tendiamo a credere che chiunque si esprima con eloquenza e sicurezza debba necessariamente essere intelligente e anche più intelligente di altri (*).

Negli esseri umani, questo è spesso vero (linguaggio articolato e pensiero complesso vanno di pari passo). Una macchina può manipolare il linguaggio senza comprendere. Si può manipolare il linguaggio senza essere intelligenti, che è esattamente ciò che dimostrano gli LLM e in genere i politici. Si tratta solo dell’eco dell’intelligenza.

Quando ci troviamo di fronte a IA generative, si pensa che un’IA stia fornendo una risposta con grande intuizione, quando in realtà ciò che si sente è solo un’eco di cose già dette in precedenza dagli esseri umani. In altre parole, si pensa che sia intelligente, ma la si scambia per gli sforzi intellettuali di menti umane del presente e del passato e si interpreta quell’eco come la voce orgogliosa dell’IA.

Consideriamo un semplice esempio: se chiedete a un modello linguistico di grandi dimensioni: “Cosa succede se ruoto la lettera D di 90° e la posiziono sopra la lettera J”, potrebbe rispondere: “Forma un ombrello”. Incredibile, sta visualizzando mentalmente delle lettere e deducendone una forma concreta! In effetti, questo enigma è un classico, riproposto più volte nella letteratura enigmistica.

È probabile che l’IA abbia visto esattamente questa domanda e risposta durante il suo addestramento, o almeno un numero sufficiente di varianti per ricavarne lo schema. La nostra meraviglia deriva dalla nostra ignoranza di questa storia precedente: pensiamo che l’IA sia creativa, quando in realtà è solo erudita. Questa è la differenza tra scoprire una soluzione e semplicemente memorizzarla senza conoscerla. Ciò che percepiamo come un lampo di intelligenza da parte della macchina è semplicemente un’eco dell’intelligenza umana passata.

Lo stesso vale quando vediamo ChatGPT superare con successo compiti complessi come test di matematica o di giurisprudenza. Data l’enorme quantità di testi che ha “letto”, molto probabilmente ha già visto risolvere problemi simili dagli esseri umani. E anche se non fosse esattamente così, ha individuato così tanti schemi da poter generalizzare delle varianti. In effetti, questi modelli sono eccellenti statistici del linguaggio: tracciano correlazioni tra frasi e idee, senza avere la minima idea di cosa significhino nel mondo reale.

La macchina non ha bisogno di capire che un ombrello protegge dalla pioggia; deve solo aver imparato che le parole “D sopra J” compaiono spesso vicino alla parola “ombrello” in un corpus. È un gigantesco gioco di associazioni automatiche.

Inoltre, non appena spingiamo queste IA un po’ oltre i loro limiti, l’illusione si incrina: a volte generano errori assurdi, possono contraddirsi, fare affermazioni incoerenti se usciamo dai sentieri battuti dei loro dati di addestramento. Questo ci ricorda che non sanno quello che dicono, nel senso che noi umani lo capiamo e loro no.

Sono incredibilmente brave queste AI a produrre risposte che sembrano plausibili, ma non sono necessariamente vere o significative. Tutte queste prestazioni impressionanti sono in realtà solo un’ottimizzazione statistica, senza comprendere perché le cose siano come sono: non hanno ancora raggiunto il traguardo di una vera intelligenza generale. Quanto a una coscienza, fosse quella del mio cane, non la raggiungeranno mai.

E questo l’ho già spiegato in precedenza: l’essenza umana, che non è un’astrazione inerente al singolo individuo, è nella sua realtà l’insieme dei rapporti sociali (vedi VI Tesi su Feurebach). La coscienza umana non è una qualità immediata dell’individuo, perciò il processo di appropriazione si ottiene nel corso dello sviluppo dei rapporti reali del soggetto col mondo. Questi rapporti dipendono non dal soggetto, non dalla sua coscienza, ma sono determinati dalle concrete condizioni storiche e sociali nelle quali egli vive.

Viceversa, le macchine, per quanto dotate di istruzioni e informazioni, per quanto comunichino tra loro, per quanto siano il mezzo più sviluppato del controllo sociale, non hanno rapporti sociali, né alcun rapporto reale col mondo perché ontologicamente incapaci di sviluppare un’autentica empatia con l’essere umano o con qualsiasi altro essere animale.

Vedere una macchina padroneggiare il linguaggio con tanta abilità, dopo che il linguaggio articolato è stato a lungo appannaggio della mente umana e dell’esistenza naturale delle nostre comunità, offusca i nostri punti di riferimento. Ma per capire perché questa padronanza rimanga superficiale, dobbiamo scavare in ciò che a queste IA manca e mancherà per sempre per pensare come noi, e che solo per un aspetto riguarda quella modalità di pensiero lenta, deliberata, logica e cosciente che caratterizza la parte più riflessiva dell’intelligenza umana.

Una macchina, per quanto sofisticata, incorpora nelle sue probabilità verbali il modo in cui gli umani usano il linguaggio quando pensano. Il risultato è che può riproporre una catena coerente di argomentazioni, dando l’impressione di farlo. Ma in realtà non capisce cosa sta “pensando”. Eseguire un programma (per quanto sofisticato) non è sinonimo di comprensione. Anche la più perfetta simulazione del pensiero non è il pensiero stesso. In altre parole, imitare un comportamento intelligente non implica che ci sia intelligenza all’opera.

Ora, si vuole dotare l’IA di capacità di elaborazione più vicine al pensiero umano, ad esempio, integrando moduli di logica formale, consentendo all’IA di “porsi domande” prima di rispondere (una tecnica di ragionamento a catena che costringe il modello a spiegare un ragionamento passo dopo passo), fino a combinare la capacità di memorizzazione del deep learning con il rigore logico dell’apprendimento simbolico.

Le macchine cosiddette intelligenti non possiedono funzioni psichiche e forme complesse culturali del comportamento, con tutte le caratteristiche funzionali e strutturali ad esse proprie. Per spiegare lo sviluppo storico del comportamento e del pensiero non si può ignorare la natura storico-sociale di questo processo, nei mutamenti profondi delle funzioni psichiche superiori, che di fatto costituiscono il contenuto dello sviluppo culturale del comportamento umano.

«Nel processo di sviluppo storico non sono tanto cambiate le funzioni psicofisiologiche elementari, quanto profondamente e totalmente sono invece mutate le funzioni superiori (pensiero verbale, memoria logica, formazione dei concetti, attenzione volontaria, volontà e via di seguito).» (Lev Vigotskij, St. dello sviluppo delle funz. psichiche superiori, Giunti-Barbera, p. 66).

Oggi vediamo quadri “dipinti” da algoritmi, musica “composta” dall’IA, articoli o testi “scritti” da macchine. Dovremmo vedere questo come l’alba di una creatività artificiale che supera quella umana? O è ancora solo una forma elaborata di riciclo? Dopotutto, la creatività umana stessa consiste spesso nel ricombinare influenze passate. Perché l’IA non potrebbe essere definita creativa se fa la stessa cosa su larga scala?

Le nostre opere sono fatte di esperienze accumulate. La differenza, sta nel fatto che il creatore umano vive e comprende ciò che sta trasformando, e può volontariamente discostarsi dalle proprie influenze, avere un’intenzione dietro il proprio lavoro. L’intenzione, lo scopo, è molto importante, ma l’IA non ha alcuna intenzione propria. Non cerca di significare nulla con il suo lavoro. È questo, mi rendo conto, un discorso che andrebbe sviluppato.

L’IA è confinata nello spazio delle possibilità già esplorate dall’umanità e registrate nei suoi dati. Può navigare in questo spazio prodigiosamente, cercando ai margini associazioni improbabili (ed è anche per questo che a volte sorprende, combinando idee che pochi umani avrebbero pensato di collegare). Ma non ha accesso al vero ignoto.

Detto questo, non possiamo escludere del tutto la possibilità che un giorno si verifichi l’emergere di comportamenti creativi più profondi. Dopotutto, se costruissero IA capaci di avere una qualche forma di motivazione (simulata), forse assisteremo all’emergere di una creatività aliena che non assomiglia alla nostra ma produce vere e proprie novità. Questo sarebbe allora il segno che abbiamo compiuto un passo verso una intelligenza artificiale più evoluta tecnologicamente. Ma non potrà mai avere il senso del mondo reale.

Ad ogni modo, siamo sull’orlo di un abisso, ma non per colpa dell’AI e di altre tecnologie. Anche per colpa nostra. Spetta a noi decidere come andare avanti, ma intanto non dobbiamo rimanere in silenzio e quantomeno chiederci urgentemente dove siamo posizionati su quel bordo e in quale direzione muovere per non finirci dentro.

(*) Questo il vantaggio dell’uomo istruito su un uomo non istruito, parlando sulle generali. Questo il vantaggio, la supremazia di secoli, dell’uomo bianco su tutti gli altri. Di una classe sociale sulle altre. Da ciò la pretesa e convinzione di superiorità.

venerdì 8 agosto 2025

In modo piuttosto approssimativo ma realistico

 

Prosegue l’atto conclusivo della cacciata dei palestinesi dalla Palestina da parte dei sionisti. Ne resteranno solo una piccola aliquota, quelli destinati a certe attività produttive e ai servizi. Ovviamente non avranno gli stessi diritti riconosciuti dalla Stato sionista ai cittadini della propria razza. Il riconoscimento dello stato di Palestina annunciato da alcune nazioni europee potrà attendere con orgoglio l’ultimarsi dello sgombro.

Tutto ciò sta avvenendo nei giorni nei quali si commemora (assai in sordina) il più grande crimine bellico del Novecento: l’annientamento di due città giapponesi con l’arma atomica da parte degli Stati Uniti.

Si narra che la distruzione delle due città evitò un ancor più grande spargimento di sangue se si fosse proceduto a un’invasione terrestre del Giappone. In realtà il Giappone e le sue forze armate erano allo stremo. Le città bombardate e rase al suolo, come Tokio, senza più rifornimenti, specie di petrolio dall’Indonesia.

Il Primo ministro, l’ammiraglio Kantarō Suzuki, propose di avviare trattative di pace con la mediazione dell’Unione Sovietica, sfruttando la posizione di neutralità che il Giappone aveva mantenuto con il paese per tutta la durata della guerra. I primi contatti avvennero tra Hirota e l’ambasciatore sovietico a Tokyo Jakov Malik, ma non approdarono a nulla, stante l’accordo della Russia con gli altri alleati e la prevista dichiarazione di guerra al Giappone.

Dopo aver decifrato il Codice Viola giapponese, i funzionari statunitensi sapevano che l’ambasciatore giapponese in URSS, Sato Naotake, stava discutendo le condizioni di resa a Mosca. Il 30 giugno 1945, Sato aveva ricevuto l’ordine di comunicare al Cremlino che l’imperatore giapponese Hirohito desiderava che la guerra fosse “terminata rapidamente”, ma che ciò era impossibile “finché Inghilterra e Stati Uniti avessero insistito sulla resa incondizionata”. Tokyo voleva garanzie che gli Alleati vittoriosi avrebbero lasciato la famiglia imperiale al potere dopo la guerra.

Per Washington il punto in questione non si poneva: gli Usa erano disposti a mantenere al potere l’imperatore giapponese (come infatti avvenne), nonostante i crimini di guerra commessi dal Giappone, tra cui una guerra di occupazione genocida in Cina che costò 20 milioni di vite. In ballo vi erano altre due ben più decisive questioni: la concordata entrata in guerra dell’Urss contro il Giappone e la sperimentazione, non più solo in vitro, degli effetti in corpore vili delle nuove armi.

L’8 di agosto, truppe sovietiche erano penetrate nel Manciukuò, mettendo fine allo Stato fantoccio creato dai Giapponesi (vedi il film di Bertolucci, L’ultimo imperatore). Tra i pochi a riconosce il Manciukuò negli anni Trenta vi fu l’immancabile Vaticano e la Spagna franchista.

L’offensiva sovietica, sferrata con grandi forze meccanizzate e motorizzate, raggiunse in pochi giorni notevoli successi e si concluse con la disfatta completa dell’armata giapponese del Kwantung e con l’occupazione della Manciuria, di parte della Corea e di alcune isole nipponiche.

A quel punto, la resa giapponese era questione di giorni, al massimo di settimane. Tutto ciò avveniva nello stesso periodo nel quale i capi di stato maggiore alleati approvarono le direttive per l’operazione Olympic, il piano di invasione del territorio metropolitano giapponese che avrebbe dovuto prendere il via il 1o novembre.

Pertanto, c’era tutto il tempo per attendere la resa giapponese prima dell’invasione, e dunque per il lancio delle atomiche. Sennonché, a quel punto della seconda guerra mondiale, l’offensiva russa in Cina, rappresentava un serio ostacolo agli interessi statunitensi in Asia e nel Pacifico.

Era tempo di “occuparsi dei russi”, scrisse il Segretario alla Guerra Henry Stimson in uno dei suoi promemoria al Generale George Marshall, allora Capo di Stato Maggiore di Truman. Questo poteva essere fatto “in modo piuttosto approssimativo e realistico”, aggiunse Stimson, poiché “abbiamo un’arma che sarà unica nel suo genere”.


giovedì 7 agosto 2025

Grazie, Alexa

 

La scorsa settimana e ieri pomeriggio mi sono capitati due fatti che mi hanno fatto riflettere: in un negozio la proprietaria parlava con Alexa (un dispositivo) come si trattasse di una persona. Ieri è successo a me con una assistente vocale. A un certo punto, m’è sfuggito un “grazie”. Com’è possibile accadano queste cose? (*)

Possiamo essere facilmente ingannati da una macchina quando imita abbastanza bene un comportamento intelligente. Ma cosa c’è in noi che ci fa vedere una coscienza dove c’è solo un meccanismo? Per capirlo, diamo un’occhiata alla nostra tendenza ad antropomorfizzare le macchine.

Nel 1997, la super intelligenza scacchistica di IBM, Deep Blue, affrontò il campione Garry Kasparov. Durante la partita, il computer fece una mossa così inaspettata e strategica che disorientò Kasparov. Era convinto di aver individuato una qualche forma di ragionamento superiore o di intervento umano dietro questa mossa “eccessivamente” intelligente. La realtà era molto più banale: la mossa brillante era il risultato di un problema di software. Incapace di decidere una mossa, Deep Blue aveva giocato una mossa casuale, che Kasparov interpretò come un gesto di intelligenza machiavellica.

Nel 1966, al MIT, l’informatico Joseph Weizenbaum creò ELIZA, uno dei primi chatbot della storia. ELIZA si atteggiava a psicoterapeuta rogersiano: riformulando le frasi dell’utente come domande “Ti sento, parlami di tua madre ...”, il programma dava l’illusione di ascoltare e capire. Weizenbaum aveva progettato ELIZA come una parodia volta a mostrare la superficialità degli scambi uomo-macchina.

Con sua grande sorpresa, molti utenti presero ELIZA sul serio. La sua stessa segretaria, dopo alcuni minuti di conversazione con il programma, chiese a Weizenbaum di lasciare la stanza per il suo colloquio privato con ELIZA! Il ricercatore rimase stupito dalla facilità con cui un software così limitato potesse avere umanizzato l’illusione di comprensione. Questa reazione inaspettata ha dato il nome all’”effetto ELIZA”, che descrive la nostra tendenza a equiparare inconsciamente il comportamento del computer al comportamento umano quando il computer adotta l’aspetto dell’interazione umana.

Tendiamo ad attribuire caratteristiche umane – emozioni, intenzioni, personalità – alle macchine non appena assumono in qualche modo un comportamento sociale. Ad esempio, i media e il pubblico in generale parlano del chatbot ChatGPT come se pensasse e volesse qualcosa, perché risponde in modo molto fluente nel linguaggio umano.

In realtà, ChatGPT predice solo la probabile parola successiva in una frase utilizzando enormi database di testo. Ma più le sue risposte imitano il linguaggio umano, più è allettante attribuirgli qualità umane come emozioni o una volontà propria. Le nostre stesse parole tradiscono questa inclinazione, fino a farci dire o pensare “ha deciso di rifiutare la mia richiesta” o “questo robot capisce cosa sto dicendo”, quando in realtà dietro ci sono solo calcoli privi di coscienza.

Di fronte a una tecnologia nuova e complessa, immaginarla funzionare come un essere umano ci rassicura, perché la rende più prevedibile ai nostri occhi. Attribuire una personalità o delle intenzioni ad Alexa o altri dispositivi simili è un modo per addomesticare la tecnologia, conferendole caratteristiche familiari. Inoltre, spesso riflette anche la limitata comprensione del pubblico sul funzionamento effettivo di questi sistemi. In breve, diamo un volto umano alla scatola nera per accettarla meglio nella nostra vita quotidiana.

Questa tendenza profondamente umana è radicata nella nostra psicologia. Il nostro cervello è costantemente alla ricerca di significato, schemi e coerenza, a volte anche dove non ce ne sono. È intuitivo e sopprime l’ambiguità, sceglie la versione più significativa della realtà. Questo è un vantaggio per dare un senso al mondo, ma ci gioca brutti scherzi.

Proprio come vediamo forme familiari nelle nuvole (un volto, un animale) puramente percettive, vediamo uno “spirito” familiare in un chatbot scherzoso o in un robot sorridente. Il nostro cervello impone una storia coerente a un comportamento, anche se ciò significa colmare le lacune con l’immaginazione. L’antropomorfismo ne è un esempio: di fronte a pochi segnali (una voce sintetica che dice “ciao”, un testo che usa la parola “io”), attiviamo spontaneamente i nostri schemi sociali e rispondiamo alla macchina come se fosse dotata di intenzioni o coscienza.

Nonostante tutti i nostri progressi informatici (ma proprio per questo!), siamo ancora inclini a queste proiezioni. Molte persone hanno provato una fitta al cuore quando hanno sentito per la prima volta la voce dolce di un assistente vocale, o si sono rivolte ad Alexa educatamente (“per favore “, “grazie”) come se si trattasse di una persona. Ci sentiamo persino tristi quando adottano un tono triste o si rifiutano di rispondere, a dimostrazione del fatto che l’illusione emotiva funziona.

Ancora più preoccupante, alcune persone oggi stanno sviluppando veri e propri legami emotivi con gli agenti conversazionali. Abbiamo visto di questi dispositivi fungere da confidenti virtuali, al punto che l’attaccamento dell’utente è molto reale, anche se l’”amicizia” da parte del dispositivo è ovviamente una finzione. I nostri sentimenti possono essere intrappolati dall’illusione tanto quanto le nostre menti.

Non significa essere ingenui o stupidi. È una conseguenza del funzionamento della nostra cognizione sociale. Siamo programmati per rilevare agenti, intenzioni, ovunque intorno a noi. Quando un’entità non umana si comporta anche solo vagamente come un essere umano, il nostro primo istinto è percepirla come tale.

Il problema è che più l’IA diventa sofisticata, più convincente diventa l’illusione. I primi chatbot come ELIZA erano relativamente facili da individuare dopo alcune conversazioni ripetitive. Ma i modelli attuali, possono sostenere una conversazione complessa per lungo tempo senza commettere errori linguistici evidenti. Diventa quindi naturale, nella foga del momento, dimenticare la natura meccanica dell’altra “persona”.

Il nostro cervello sociale è in modalità pilota automatico. Questo è affascinante perché rivela fino a che punto linguaggio e comportamento siano sufficienti a suggerire “intelligenza”. Il Test di Turing, ideato nel 1950: se una macchina riesce a sostenere una conversazione indistinguibile da quella di un essere umano, allora è considerata “pensante”. È solo un’imitazione priva di coscienza, ma l’effetto su di noi è praticamente lo stesso.

Ritornerò sull’argomento.

(*) Con l’esigenza dell’esercito di avere a disposizione una notevole potenza di calcolo, gli esperimenti per costruire un calcolatore digitale accelerarono durante la Seconda Guerra Mondiale, ma rimasero insoddisfacenti. Alla fine del conflitto, un certo John Neumann (1903-1957), avrebbe fatto compiere un grande balzo in avanti. Nato a Budapest col nome di János Lajos, si rivelò presto un bambino molto dotato: all’età di 6 anni, imparava a memoria i libri, ripetendo all’istante intere pagine di elenco telefonico che gli erano state mostrate solo per pochi istanti o eseguendo rapidamente a mente divisioni con due numeri da otto cifre.

Da Wikipedia: «John von Neumann è stato una delle menti più brillanti e straordinarie del secolo scorso. Insieme con Leó Szilárd, Edward Teller ed Eugene Wigner faceva parte del “clan degli ungheresi” ai tempi di Los Alamos e del Progetto Manhattan. Oltre a essere ungheresi, tutti e quattro erano ebrei».

I creatori dell’informatica erano matematici o fisici, tutti più o meno autistici e con evidenti fisse ideologiche: anche Janos maturò la convinzione che gli aspetti economici e sociali e le relazioni tra individui potessero essere trattati in termini matematici.

Leggo da Wikipedia che fu Neumann a suggerire come lanciare la bomba atomica a Nagasaki per creare il maggior numero di danni e di morti. Si spinse oltre, proponendo alle autorità militari di bombardare preventivamente con armi nucleari l’Unione Sovietica per scongiurare il pericolo rosso. La sua teoria dei giochi fu utilizzata in questo contesto per studiare e ipotizzare tutti i possibili scenari bellici che si possono sviluppare in seguito a certe decisioni.

Ognuno segue il proprio destino, come ebbe a dire la mamma di Forrest Gump: probabilmente furono le radiazioni dei numerosi test atomici ai quali Neumann assistette a condannarlo a morte.

Nel 1948, Alan Turing lavorava all’Università di Manchester su uno dei primi computer commerciali, il Manchester Mark I. Turing consigliava ai giovani ingegneri di programmare la macchina come un bambino che impara, non come un adulto che sa già molto.

Nel 1950, Turing scrisse un articolo fondamentale: Computing Machinery and Intelligence, che gettò le basi per quella che non era ancora chiamata intelligenza artificiale. Egli credeva che entro il 2000 avremmo avuto macchine dotate di un comportamento intelligente indistinguibile dal ragionamento umano.

Arriviamo al 1956. Quell’estate si tiene al Dartmouth College nel New Hampshire una conferenza fondativa: il Dartmouth Summer Research Project sull’Intelligenza Artificiale. Si affermò che la conferenza avrebbe dovuto “procedere sulla base della congettura che ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza possa, in linea di principio, essere descritto con tale precisione che si possa realizzare una macchina in grado di simularlo”.

mercoledì 6 agosto 2025

Seminerio

 

Seminerio sa tante cose, e sa perché l’Urss è implosa. È uno dei tanti che pensa sia stato principalmente per un fatto connesso all’economia. Roba di aratri e calze di nailon. Le storture di un’economia pianificata (male). Le statistiche su di lui agiscono come carta moschicida: impigliato nella colla dei numeri. Se gli si dà corda è pronto a sciorinarne mezza tonnellata di ineccepibili, anche con sottotitoli in italiano.

Seminerio, così come sapeva del bisogno di democrazia nei paesi del blocco sovietico (s’è visto!), presume di sapere che cos’è la Russia di oggi (una feroce dittatura, senz’altro). Come già Hegel, anche lui ha la sua preghiera quotidiana. Sono più di tre anni che, al mattino prima del caffellatte, sbircia al microscopio le statistiche sull’imminente crollo dell’economia russa. È noto che la verità storica va cercata nei numeri.

Seminerio non è il solo a puntare sul crollo della Russia (poi a dire: avevo ragione!). Neanche lo sfiora il fatto che con le difficoltà economiche e militari della Russia di Putin si accrescerebbe la nostra dose di brividi nucleari, stante il fatto che dai due lati della barricata vi sono dei folli col cerino in mano.

Seminerio, se non fosse per la capigliatura e l’assenza di rotacismo, potrebbe aspirare ad essere un Federico Fubini dell’area blogger.

martedì 5 agosto 2025

Il cammino ascendente del militarismo tedesco

 

A giustificazione del massiccio riarmo europeo, si citano ragioni di sicurezza in riferimento alla Russia. Dapprima va rilevato che tutti gli Stati, e quindi anche la Russia, possono trovare soluzione ai loro problemi di sicurezza soltanto nel contemperamento delle sicurezze rispettive di ognuno. La Russia non minaccia le frontiere né della Francia, né della Germania, né dell’Italia, e tantomeno della Gran Bretagna. La Nato è presente a ridosso delle frontiere russe.

Il vero casus belli per il quale si fronteggiano Russia e Ucraina, com’è noto, non riguarda principalmente il contrasto tra i due Stati sui territori di confine. Il principale motivo che ha spinto il Cremlino a invadere l’Ucraina nel 2022 riguarda proprio il tema della sicurezza. Pertanto nessuna trattativa di pace andrà a buon fine tra l’Ucraina e la Russia per il semplice motivo che i principali partener della NATO non sono disposti ad accettare le richieste principali della Russia se non sarà consentito di dislocare le proprie forze NATO in Ucraina.

Il progetto è quello di mettere mani e piedi, prima o poi, in quella ampia fetta di mondo che si chiama Siberia (subito di là degli Urali) e avere campo libero per l’Artico. Questo come motivo principale. Poi, s’aggiunge il fatto che qualunque cessione territoriale da parte ucraina viene intesa come un insopportabile sacrificio; così come, allo stato delle cose, qualunque guadagno territoriale da parte della Russia non sarebbe inteso come sufficiente.

Che poi la Russia costituisca una reale minaccia per l’Europa, è semplicemente una fola. Troppo grande la sproporzione delle forze convenzionali che possono essere messe in campo dai Paesi dell’Alleanza atlantica a fronte di quelle russe. È pertanto necessario chiedersi a chi serva realmente il riarmo, magari a riguardo della Germania. Si guardi con preoccupazione il cammino ascendente della Germania come potenza militare.

Berlino ordinerà 3.000 veicoli blindati Boxer e 3.500 veicoli da combattimento di fanteria Patria (azienda finlandese) per un valore di 17 miliardi di euro, oltre a jet Eurofighter, eccetera. Questo fa seguito all’impegno del cancelliere tedesco Friedrich Merz, assunto a maggio, di utilizzare il programma di riarmo di Berlino da 1.000 miliardi di euro per rendere la Bundeswehr tedesca “l’esercito convenzionale più forte d'Europa”.

Pertanto, Putin e la Russia non possono essere considerati i soli responsabili di questa situazione bellica e di corsa al riarmo, e anzi sono essi stessi tirati in ballo da pregresse decisioni altrui (NATO).

Infine, se Trump dovesse effettivamente imporre dazi del 100% ai paesi che commerciano con la Russia, il risultato potrebbe portare a un forte squilibrio del commercio mondiale. Tra gli acquirenti di petrolio e gas russi non ci sono solo le principali economie asiatiche come Cina, India e Turchia, ma anche, nonostante le sanzioni dell’UE contro la Russia, diversi stati membri: Ungheria, Belgio, Francia, Slovacchia, Repubblica Ceca e, un pochino (gasdotto TAP e, in misura minore, gas naturale liquefatto), anche l’Italia di Meloni- Mattarella.