Deadbots, “conversare” con i cari estinti: studio sui danni psicologici dell’IA

31
Foto di HUNG QUACH da Pixabay

Con le intelligenze artificiali che consentono sempre piu’ esperienze di tipo virtuale, e’ fondamentale comprendere i rischi e i potenziali danni psicologici derivanti dall’utilizzo di strumenti particolarmente delicati, come “Deadbots” o “Griefbots”, chatbot che simulano i modelli linguistici e i tratti della personalita’ dei defunti. Questo, in estrema sintesi, e’ quanto sostengono gli scienziati dell’Universita’ di Cambridge, che hanno pubblicato un articolo sulla rivista Philosophy & Technology per rendere noti i risultati della propria analisi. Il gruppo di ricerca, guidato da Katarzyna Nowaczyk-Basiska, ha ribadito che le intelligenze artificiali potrebbero provocare danni psicologici a chi sta affrontando il lutto e il dolore della perdita. Alcune aziende stanno già offrendo servizi di “presenza post-mortem”, rielaborando i modelli linguistici dei defunti per permettere ai loro cari di intrattenere una conversazione ultraterrena attraverso l’intelligenza artificiale. I ricercatori hanno delineato tre scenari di progettazione per piattaforme che potrebbero emergere come parte dello sviluppo dell’industria “dell’aldila’ digitale”. “I rapidi progressi nell’intelligenza artificiale generativa – afferma Nowaczyk-Basiska – permettono a chiunque abbia accesso a internet e possieda un minimo di know-how di base di far rivivere, almeno virtualmente, un caro estinto. Quest’area dell’intelligenza artificiale e’ un campo minato dal punto di vista etico. E’ importante dare priorita’ alla dignita’ del defunto e garantire che questa non venga lesa, ad esempio, da motivazioni finanziarie. Allo stesso modo, i diritti dei donatori di dati e di chi usufruisce del sistema dovrebbero essere tutelati attraverso regole e leggi ben definite”. Esistono gia’ piattaforme che offrono di ricreare i morti con l’intelligenza artificiale pagando una piccola cifra, come “Project December”, che ha iniziato a sfruttare i modelli GPT, o l’app “HereAfter”. Nei tre scenari ipotetici presentati nell’articolo, gli autori hanno descritto tre aziende immaginarie, MaNana, Paren’t e Stay, per evidenziare le potenziali criticità di questi servizi. Ad esempio, il chatbot MaNana potrebbe suggerire di ordinare dai servizi di consegna utilizzando la voce e lo stile di un nonno o una nonna perduti. Le aziende potrebbero inserire pubblicita’ occulte per sponsorizzare prodotti, causando la percezione di una mancanza di rispetto nei confronti del defunto.