La moda di ChatGpt e la dura realtà. Carlo Lauro: Mera intelligenza algoritmica

430
in foto Carlo Lauro, professore emerito della Università Federico II e presidente dell’Associazione Professori Emeriti Fridericiani

L’upgrade di ChatGpt, la versione 4 messa in campo da OpenAI, sta facendo molto discutere e non soltanto per la capacità che avrà di accettare dall’utente immagini e video (oltre che testo) ma per le implicazioni etiche, professionali, sociali ed economiche che porta con sé. Umanizzare una macchina è da sempre il sogno dell’uomo ma raramente le risposte che essa dà sono il risultato che ci si aspetta. Il delta di emozioni che l’animo umano trasferisce attraverso l’atto del comunicare, nelle interazioni sociali e nei rapporti di lavoro, è senz’altro una funzione propria ed esclusiva dell’uomo e la pretesa che un software di intelligenza artificiale, per quanto performante e sofisticato sia, possa mimare i comportamenti umani e, addirittura, sostituirsi a noi appare quello che alla fine è: un’illusione ottica.

Ingolosirsi per macchine di ultima generazione è da sempre una moda che a tutti i livelli contagia generazioni di uomini e donne. E’ accaduto per il mercato delle auto, per quello degli elettrodomestici, con Internet e per la musica. Accadrà anche per il mondo del digitale spinto, dove si tenta sempre più di conferire una delega in bianco ai pc per offrire la dimostrazione più eloquente che i prodotti da loro creati siano migliori di quelli fatti dall’uomo. Un’idea che confligge in maniera stridente con la dura realtà, dal momento che le macchine non hanno una coscienza e non saranno mai capaci di fare, dire, scrivere e – soprattutto – immaginare “cose” come soltanto l’uomo, con il suo corollario di pregi e difetti, sa e può fare.

“Penso che un chatbot non sia intelligente, nonostante le sue grandi capacità di elaborare e gestire il linguaggio naturale o dati di altra natura (es. immagini), ma sia soltanto erudito sulla base di peta di dati cui ha accesso a velocità inimmaginabili per l’uomo. Penso inoltre che non abbia affatto l’intelligenza umana, che si basa sulla capacità autonoma di ragionamento ma anche sulla fantasia. Einstein diceva ‘la fantasia è più importante della conoscenza’. Ho provato a interrogare ChatGpt su tematiche relative alla Scienza dei dati e il mio voto non è andato oltre uno stirato 23/30. Preparazione nozionistica ma capacità di andare oltre  l’assemblaggio di tali nozioni pressoché 0”. Spiega Carlo Lauro, che dello studio dei dati ne ha fatto una ragione di vita. Oggi è professore emerito di Statistica dell’Università di Napoli Federico II e svolge la funzione di presidente dell’Associazione dei Professori Emeriti Fridericiani (Apef), ma qualche anno fa era tra i banchi dell’ateneo federiciano a specializzarsi in Teoria e tecnica degli elaboratori elettronici e poi nell’Analisi multidimensionale dei dati presso l’ISUP  e l’INRIA (Parigi) e l’Istituto di Statistica Matematica (Tokyo).

“Penso che sia necessario inventare un test per misurare il QI di queste macchine – rincara Carlo Lauro. Intelligenza artificiale? Sono restio ad utilizzare la parola intelligenza, tutt’al più parlerei di intelligenza algoritmica. L’artificiale sottintende il confronto con l’intelligenza umana. Non se ne parla proprio. A mio avviso rimane ancora valido quanto 60 fa ci insegnavano ai corsi sui Calcolatori: ‘L’uomo è intelligente ma lento, la macchina stupida ma veloce. Eppoi, il loro utilizzo da parte di persone non avvedute soprattutto studenti è rischioso ma non per questo del tutto inutile se  si va oltre la risposta del chatbot, magari leggendo poi qualche articolo o un buon libro. Per un ricercatore, ma anche per qualsiasi utente, è importante avere notizia sull’affidabilità e sull’aggiornamento delle fonti, cosa che non mi pare al momento sia fornita”.
Non servono più macchine intelligenti, forse. Ma persone più intelligenti in grado di gestire macchine…