Giganti dell’IA s’impegnano a sostenere uno sviluppo responsabile

15

Roma, 22 mag. (askanews) – Quattordici tra i giganti dell’intelligenza artificiale – tra i quali Meta, Google, OpenAI, Microsoft, IBM, Samsung, Naver – hanno adottato oggi un impegno congiunto, promettendo di sviluppare e utilizzare l’intelligenza artificiale (IA) in modo responsabile e di affrontare le sfide sociali con questa tecnologia.

Il “Seoul AI Business Pledge” è stato annunciato dalle compagnie in occasione della cerimonia d’apertura dell’AI Global Forum iniziato a a Seoul. I firmatari sono: Adobe, Anthropic, Cohere, Google, IBM, Kakao, KT, LG AI Research, Microsoft, NAVER, OpenAI, Salesforce, Samsung Electronics e SK Telecom.

L’AI Global Forum fa parte del vertice AI Seoul Summit di due giorni, co-ospitato dalla Corea del Sud e dalla Gran Bretagna, come seguito del summit inaugurale globale sulla sicurezza dell’IA dell’anno scorso, dove sono state adottate le prime linee guida globali.

“Ci impegniamo a sostenere le tre priorità strategiche, attraverso i nostri sforzi che includono il progresso della ricerca sulla sicurezza dell’IA, l’identificazione delle migliori pratiche, la collaborazione tra settori e l’aiuto all’IA per affrontare le maggiori sfide della società,” recita l’impegno. Le tre priorità sono: garantire uno sviluppo e un uso responsabili dell’IA, perseguire uno sviluppo sostenibile e l’innovazione nell’IA e assicurare i benefici equi dell’IA per tutti.

Nell’impegno, le aziende prendono atto della rapida accelerazione dei progressi tecnologici nell’IA e del loro crescente impatto sulla comunità globale. Promettono di lavorare per garantire uno sviluppo responsabile dell’IA in linea con la Dichiarazione di Seoul adottata il giorno precedente durante l’AI Seoul Summit.

La Dichiarazione di Seoul chiede di promuovere un’IA sicura, innovativa e inclusiva per affrontare le sfide e le opportunità associate alla tecnologia in rapida evoluzione.

L’AI Global Forum – secondo quanto riferisce l’agenzia di stampa Yonhap – si sta svolgendo con rappresentanti di 19 paesi, tra cui Stati Uniti, Giappone, Germania, Francia e Italia, che partecipano alla sessione ministeriale per discutere le azioni per rafforzare la sicurezza dell’IA.

Grandi personalità del settore – tra cui Jason Kwon, chief strategy officer di OpenAI, e Tom Lue, vice presidente di Google DeepMind – parteciperanno a tavole rotonde.

Durante la cerimonia di apertura del forum di mercoledì, Andrew Ng, capo dello studio di venture globali sull’IA, AI Fund, ha tenuto un discorso di apertura, esortando i governi a promuovere sia l’innovazione che la sicurezza nell’IA. “Anche se i media tendono a concentrarsi sulla tecnologia dell’IA, la maggior parte delle opportunità risiedono nella costruzione di applicazioni IA” ha detto Ng, sottolineando la distinzione tra tecnologia e le sue applicazioni, che soddisfano esigenze specifiche dei clienti. “I rischi sono una funzione dell’applicazione, non della tecnologia”, ha continuato, raccomandando che i governi regolino applicazioni specifiche dell’IA piuttosto che le tecnologie di uso generale, a partire dai modelli di linguaggio di grandi dimensioni (LLM).