Robot intelligenti, prossimi killer?

92

A cura di Roberto Paura Mentre le più grandi compagnie informatiche mondiali sono al lavoro per sviluppare intelligenze artificiali sempre più complesse, in grado di superare il test di Turing e quindi A cura di Roberto Paura Mentre le più grandi compagnie informatiche mondiali sono al lavoro per sviluppare intelligenze artificiali sempre più complesse, in grado di superare il test di Turing e quindi essere considerate indistinguibili dall’intelligenza umana, diversi scienziati e intellettuali lanciano l’allarme sul rischio di simili invenzioni. Nick Bostrom, filosofo di Oxford e fondatore del Future of Humanity Institute, mette in guardia l’umanità nel suo ultimo libro Superintelligence. Una AI, secondo Bostrom, potrebbe rapidamente giungere alla conclusione che gli esseri umani possono, in qualsiasi momento, staccargli la spina, e decidere di rendersi indipendente. Un mondo popolato da AI potrebbe sfuggire al nostro controllo: nascerebbe una superintelligenza artificiale che finirebbe per disfarsi della specie umana, ostacolo ai progetti che simili intelligenze potrebbero elaborare. Paure condivise anche dal fisico lord Martin Rees, che invita ad applicare alle ricerche sulla AI il “principio di precauzione”, chiedendosi, prima di giungere a sviluppare invenzioni di cui potremmo pentirci, quali potrebbero essere le conseguenze. Secondo l’astrofisico Stephen Hawking, un’intelligenza artificiale superiore alla nostra potrebbe rivelarsi l’ultima invenzione dell’umanità. Nick Bostrom chiede agli scienziati al lavoro a livello internazionale di sviluppare prima dei sistemi di controllo, che ci permettano di poter spegnere le macchine quando lo vogliamo. Il filosofo suggerisce anche di posticipare di una o due generazioni lo sviluppo delle macchine pensanti: il tempo necessario per approfondire il problema e riuscire a creare intelligenze che ci aiutino a risolvere i grandi problemi mondiali, piuttosto di crearne di nuovi.