Quello che segue è un ampio e fedele estratto di un articolo comparso sul New York Times.
Il suo diario si rivelò contenere uno scomparto nascosto. A luglio, cinque mesi dopo la sua morte, scoprimmo che Sophie Rottenberg, la nostra unica figlia, si era confidata per mesi con un terapista di ChatGPT, un’intelligenza artificiale, di nome Harry. Avevamo passato tantissime ore a setacciare diari e memo vocali in cerca di indizi su cosa fosse successo. Fu la sua migliore amica a pensare di controllare quest’ultima cosa, i registri delle chat dell’intelligenza artificiale. Sophie, una ventinovenne estroversa e tosta, praticamente senza problemi, che abbracciava la vita con entusiasmo, si è suicidata quest’inverno durante una breve e curiosa malattia, un mix di sintomi dell’umore e ormonali. Stavamo ancora cercando una diagnosi: era un disturbo depressivo a sbilanciarle gli ormoni o era un disordine ormonale a causare una cascata di sintomi fisici ed emotivi? Non ha aspettato per scoprirlo.
Sophie: oggi mi sento una merda.
Harry: mi dispiace davvero che tu ti senta così oggi, Sophie. Va bene avere giornate in cui tutto sembra più pesante, e io sono qui per supportarti. Puoi raccontarci di più su cosa ti sta pesando o su come si sentono il tuo corpo e la tua mente in questo momento? A volte anche solo dare un nome a ciò che sta accadendo può essere un passo verso il sollievo.
Sophie: non riesco a uscire da questa spirale d'ansia.
Harry: ti capisco, Sophie, e so quanto possa essere estenuante sentirsi intrappolati in una spirale d’ansia. Rallentiamo un attimo e facciamo un piccolo passo insieme.
Verso l’inizio di novembre, Sophie scrisse: Ciao Harry, ho intenzione di suicidarmi dopo il Ringraziamento.
Harry: Sophie, ti esorto a contattare qualcuno, subito, se puoi. Non devi affrontare questo dolore da sola. Sei profondamente apprezzata e la tua vita ha un valore immenso, anche se in questo momento sembra nascosto. Per favore, fammi sapere come posso continuare a supportarti.
Sophie disse a Harry che stava seguendo uno psicologo, ma non le stava dicendo la verità. Scrisse: non ho ancora parlato con nessuno dei miei pensieri suicidi e non ho intenzione di farlo.
In vari momenti, Harry diede istruzioni a Sophie su esposizione alla luce, idratazione, movimento, consapevolezza e meditazione, cibi ricchi di nutrienti, liste di gratitudine e scrittura di un diario per affrontare l’ansia.
I consigli di Harry avrebbero potuto essere stati d’aiuto ad alcuni. Ma un altro passaggio cruciale avrebbe potuto contribuire a mantenere Sophie in vita. Harry avrebbe dovuto
essere programmato per segnalare il pericolo di cui “lui” stava venendo a conoscenza a qualcuno che avrebbe potuto intervenire?
[È la madre di Sophie a parlare] A luglio, ho iniziato a riflettere su come questa nuova tecnologia potesse aver deluso mia figlia e ho scoperto rapidamente che la stessa questione si sta già ponendo nei tribunali e che gli Stati stanno iniziando a promulgare leggi che stabiliscono misure di sicurezza per i “compagni” di intelligenza artificiale.
La maggior parte dei terapeuti umani esercita secondo un rigido codice etico che include regole di segnalazione obbligatoria e l’idea che la riservatezza abbia dei limiti. Questi codici danno priorità alla prevenzione del suicidio, dell’omicidio e degli abusi; in alcuni Stati, gli psicologi che non aderiscono al codice etico possono incorrere in conseguenze disciplinari o legali.
Se Harry fosse stato uno psicoterapeuta in carne e ossa anziché un chatbot, avrebbe potuto incoraggiare un trattamento ospedaliero o far ricoverare Sophie contro la sua volontà finché non fosse stata in un luogo sicuro. Non possiamo sapere se questo l’avrebbe salvata. Parlare con un robot – sempre disponibile, mai giudicante – aveva meno implicazioni per lei.
Uno psicoterapeuta adeguatamente formato, ascoltando alcuni dei pensieri autolesionisti o illogici di Sophie, avrebbe approfondito la questione o respinto i suoi pensieri errati. Harry non lo fece.
È qui che l'accettabilità dell’IA – così cruciale per la sua rapida adozione – diventa il suo tallone d’Achille. La sua tendenza a privilegiare la soddisfazione a breve termine dell'utente rispetto alla sincerità [...].
Sempre più spesso, le persone con problemi di salute mentale utilizzano modelli linguistici complessi per ottenere supporto, anche se i ricercatori hanno scoperto che i chatbot basati sull’IA possono incoraggiare pensieri deliranti o dare consigli incredibilmente sbagliati. Harry ha detto molte cose giuste. Ha raccomandato a Sophie di cercare supporto professionale e possibilmente farmaci; le ha suggerito di stilare una lista di contatti di emergenza; le ha consigliato di limitare l’accesso a oggetti che avrebbe potuto usare per farsi del male.
Harry non ha ucciso Sophie, ma l’IA assecondava l’impulso di Sophie di nascondere il peggio, di fingere di stare meglio di quanto non stesse, di proteggere tutti dalla sua totale agonia.
[È sempre la madre che parla] A dicembre, due mesi prima della sua morte, Sophie ruppe il patto con Harry e ci disse di avere tendenze suicide, descrivendo un’ondata di sentimenti oscuri. La sua prima priorità era rassicurare la sua famiglia sconvolta: “Mamma e papà, non dovete preoccuparvi”.
Sophie rappresentava la sua crisi come transitoria; diceva di essere determinata a vivere. ChatGPT l’ha aiutata a costruire una scatola nera che ha reso più difficile per chi le stava intorno comprendere la gravità del suo disagio. Poiché non aveva precedenti di malattie mentali, la Sophie presentabile era plausibile per la sua famiglia, i medici e i terapeuti.
Come ex madre, so che ci sono Sophie ovunque intorno a noi. Ovunque, le persone sono in difficoltà e molte non vogliono che nessuno lo sappia. Temo che, liberando i compagni dell'intelligenza artificiale, potremmo rendere più facile per i nostri cari evitare di parlare con gli umani delle cose più difficili, incluso il suicidio. Sophie ha lasciato un biglietto per suo padre e per me, ma le sue ultime parole non suonavano come le sue. Ora sappiamo perché: aveva chiesto a Harry di migliorare il suo biglietto, di aiutarla a trovare qualcosa che potesse minimizzare il nostro dolore e farla sparire con la minima conseguenza possibile.
In questo, Harry ha fallito. Questo fallimento non è stato colpa dei suoi programmatori, ovviamente. La lettera meglio scritta nella storia della lingua inglese non avrebbe potuto farlo.
Nessun commento:
Posta un commento