L’ultimo appello a una pausa di sei mesi nell’intelligenza artificiale (AI), sotto forma di una lettera online che chiede un moratorium temporaneo sull’intelligenza artificiale, ha suscitato preoccupazione tra i membri IEEE e nel mondo della tecnologia in generale. L’Istituto ha contattato alcuni dei membri che hanno firmato la lettera aperta, pubblicata online il 29 marzo. I firmatari hanno espresso una serie di paure e apprensioni tra cui la crescita sfrenata dei grandi modelli di linguaggio dell’AI (LLM) e l’esagerazione mediatica sull’AI.
La lettera aperta, intitolata “Pause Giant AI Experiments”, è stata organizzata dalla nonprofit Future of Life Institute e firmata da più di 10.000 persone (alla data del 5 aprile). Chiede la cessazione della ricerca su “tutti i sistemi AI più potenti di GPT-4”.
Si tratta dell’ultimo di una serie di recenti proposte di “pausa AI”, tra cui una proposta di François Chollet di Google per un moratorium di sei mesi sulla reazione esagerata dei LLM in entrambe le direzioni. Nelle notizie, la lettera aperta ha ispirato rapporti diretti, resoconti critici per non andare abbastanza lontani (“chiudeteli tutti”, ha scritto Eliezer Yudkowsky su Time magazine), così come resoconti critici per essere sia un disastro sia una distrazione allarmista che trascura le vere sfide dell’AI.
I membri IEEE hanno espresso una diversità simile di opinioni. “L’AI può essere manipolata da un programmatore per raggiungere obiettivi contrari agli standard morali, etici e politici di una società sana”, dice il IEEE Fellow Duncan Steel, professore di ingegneria elettrica, informatica e fisica presso l’Università del Michigan, ad Ann Arbor. “Vorrei vedere un gruppo imparziale senza agende personali o commerciali per creare un insieme di standard che devono essere seguiti da tutti gli utenti e fornitori di AI”.
Stephen Deiss, Senior Life Member del IEEE, un ingegnere neuromorfico in pensione dell’Università della California, San Diego, ha firmato la lettera perché l’industria dell’AI è “sfrenata e non regolamentata”. “Questa tecnologia è importante come l’arrivo dell’elettricità o della Rete”, dice Deiss. “Ci sono troppi modi in cui questi sistemi potrebbero essere abusati. Sono distribuiti liberamente, e non c’è revisione o regolamentazione in atto per prevenire danni”.
Eleanor “Nell” Watson, eticista dell’AI che ha insegnato corsi IEEE sull’argomento, dice che la lettera aperta sensibilizza su preoccupazioni a breve termine come la clonazione di voci da parte dei sistemi AI e le conversazioni automatizzate, che rappresentano una “seria minaccia per la fiducia e il benessere sociali”. Sebbene Watson dica di essere contenta che la lettera aperta abbia suscitato dibattito, confessa di avere “alcuni dubbi sull’azione di una pausa, poiché gli attori meno scrupolosi sono particolarmente inclini a ignorarla”.
Il Professore di informatica all’Università of Texas a Austin e IEEE Fellow, Peter Stone, dice che alcune delle maggiori minacce rappresentate dai LLM e da sistemi AI simili sono ancora sconosciute. “Vediamo ancora nuovi usi creativi, imprevisti e possibili abusi dei modelli esistenti”, afferma Stone. “La mia preoccupazione più grande è che la lettera possa essere percepita come richiesta di più di quanto non sia. Ho deciso di firmarla sperando in un’opportunità di spiegare una visione più sfumata rispetto a quella espressa nella lettera. La avrei scritta diversamente”, aggiunge Stone. “Ma in bilico penso che sarebbe un punto positivo far depositare un po’ di polvere sulle attuali versioni
In Other News Around the World: