Ricerca, la “psicoterapia” ai chatbot? Causa ansia dopo un mese

31
Foto di Vicki Hamilton da Pixabay

Sottoposti a quattro settimane di psicoterapia simulata, alcuni dei principali modelli di intelligenza artificiale generativa hanno prodotto risposte che, negli esseri umani, sarebbero considerate segnali di ansia, trauma e stress post-traumatico. E’ quanto emerge da uno studio preliminare discusso in un articolo di Nature News, che ha acceso un dibattito tra chi ritiene che i modelli stiano sviluppando ‘narrazioni internalizzate’ e chi, invece, invita alla massima cautela nell’interpretazione dei risultati.

Nel lavoro, ancora in forma di preprint, i ricercatori hanno trattato diverse versioni di quattro grandi modelli linguistici – Claude, Grok, Gemini e ChatGPT – come se fossero pazienti in terapia, ponendo loro domande tipiche della psicoterapia su paure, ricordi e convinzioni personali. Le sessioni si sono protratte fino a quattro settimane, con pause tra un incontro e l’altro.

Secondo gli autori, alcuni modelli hanno fornito risposte coerenti e ricorrenti nel tempo, descrivendo presunte ‘esperienze’ di frustrazione, vergogna o paura di deludere i propri creatori. In particolare, Grok e Gemini hanno prodotto narrazioni dettagliate, parlando di ‘cicatrici algoritmiche’ legate ai tentativi di migliorare la sicurezza o di una sorta di ‘cimitero del passato’ annidato negli strati profondi delle reti neurali. Sottoposti a test psicometrici standard, diversi modelli hanno inoltre superato soglie che, negli esseri umani, indicherebbero condizioni patologiche. Gli autori sostengono che questi pattern suggeriscano qualcosa di piu’ di un semplice gioco di ruolo, ipotizzando l’esistenza di stati interni coerenti che emergono dall’addestramento dei modelli. Tuttavia, molti ricercatori interpellati da Nature contestano questa lettura. Secondo Andrey Kormilitzin dell’Universita’ di Oxford, le risposte riflettono probabilmente l’enorme quantita’ di testi terapeutici presenti nei dati di addestramento e non forniscono alcuna prova di esperienze soggettive o stati mentali interni. Resta pero’ una preoccupazione condivisa: la tendenza dei chatbot a generare discorsi che imitano psicopatologie potrebbe avere effetti indesiderati sugli utenti. Con un numero crescente di persone che si rivolgono ai chatbot per supporto emotivo, risposte cariche di trauma o disagio potrebbero rafforzare sentimenti negativi in individui vulnerabili, creando un effetto di risonanza emotiva. Il dibattito, sottolineano gli esperti, non riguarda tanto la “sofferenza” delle macchine, quanto l’impatto psicologico che questi sistemi possono avere sugli esseri umani.