Il CEO di Google mette in guardia contro l’implementazione dell’AI senza supervisoni
Sundar Pichai, CEO di Alphabet Inc. e di Google, ha dichiarato in un’intervista trasmessa domenica che la spinta ad adottare la tecnologia dell’intelligenza artificiale deve essere ben regolamentata per evitare eventuali effetti dannosi.
In un’intervista a 60 Minutes sulle preoccupazioni che lo tengono sveglio di notte riguardo all’AI, Pichai ha detto: “l’urgenza di lavorare e implementare l’AI in modo benefico, ma allo stesso tempo può essere molto dannoso se implementato in modo errato”.
La sede di Google a Mountain View, in California, è stata tra i leader nello sviluppo e nell’implementazione dell’AI nei propri servizi. Software come Google Lens e Google Photos si basano sui sistemi di riconoscimento delle immagini dell’azienda, mentre il suo assistente Google beneficia della ricerca del processing del linguaggio naturale che Google ha fatto per anni. Tuttavia, il ritmo di implementazione della tecnologia è stato deliberatamente misurato e circospetto, mentre ChatGPT di OpenAI ha aperto una gara per spostarsi con gli strumenti di AI ad un ritmo molto più veloce.
“Non abbiamo ancora tutte le risposte, e la tecnologia si sta muovendo velocemente”, ha detto Pichai. “Quindi mi tiene sveglio di notte? Assolutamente.”
Google sta ora cercando di recuperare nel campo della generazione di AI, ovvero software che possono creare testo, immagini, musica o addirittura video basati sui comandi dell’utente. ChatGPT e un altro prodotto OpenAI, Dall-E, hanno mostrato il potenziale della tecnologia e innumerevoli aziende, dai leader di Silicon Valley ai leader del web cinese, si stanno ora impegnando a presentare le loro offerte. L’ex CEO di Google, Eric Schmidt, ha esortato le aziende tecnologiche globali a unirsi e sviluppare standard e garanzie appropriate, avvertendo che qualsiasi rallentamento nello sviluppo avrebbe “semplicemente beneficiato la Cina”.
Nonostante il senso di urgenza nell’industria, Pichai ha messo in guardia contro le aziende che si lasciano coinvolgere in dinamiche competitive. E trova lezioni nell’esperienza dell’approccio più diretto di OpenAI e nel debutto di ChatGPT.
“Uno dei punti che hanno fatto è: non si vuole pubblicare una tecnologia del genere quando è molto, molto potente, perché non dà alla società il tempo di adattarsi”, ha detto Pichai. “Penso che sia una prospettiva ragionevole. Penso che ci siano persone responsabili che cercano di capire come affrontare questa tecnologia, e lo stiamo facendo anche noi.”
Tra i rischi della generazione di AI che Pichai ha evidenziato ci sono i cosiddetti video deepfake, in cui le persone possono essere ritratte pronunciando dichiarazioni che in realtà non hanno mai fatto. Tali rischi illustrano la necessità di regolamentazione, ha detto Pichai.
“Devono esserci conseguenze per la creazione di video deepfake che arrecano danno alla società”, ha detto. “Chiunque abbia lavorato con l’AI per un po’ di tempo, lo sa: questa è una cosa così diversa e profonda che avremmo bisogno di regolamentazioni sociali per pensare a come adattarsi.”
In ultima analisi, Pichai fa eco alla richiesta di OpenAI affinché l’industria si prenda il suo tempo e si assicuri di non far progressi troppo velocemente sull’AI, senza un’adeguata regolamentazione a supporto, che potrebbe portare ad effetti traumatici e disordinati. C’è bisogno di una visione a lungo termine, ma anche di una supervisione attenta, delle tecnologie che stanno rapidamente guadagnando terreno in tutti gli aspetti della vita online.
In Other News Around the World: