Leader tecnologici e importanti ricercatori di intelligenza artificiale hanno firmato lettera aperta, che invita i laboratori e le aziende di intelligenza artificiale a "sospendere immediatamente" il loro lavoro.
I firmatari, tra cui Steve Wozniak ed Elon Musk, concordano sul fatto che i rischi richiedono una pausa di almeno sei mesi dalla produzione di tecnologie che vanno oltre lo scopo GPT-4. Questo per ottenere la gioia e la soddisfazione dai sistemi di intelligenza artificiale che esistono ora e per consentire alle persone di adattarsi a loro e vedere che sono utili.
La lettera aggiunge che sono necessarie cautela e lungimiranza per garantire la sicurezza dei sistemi di intelligenza artificiale, ma vengono ignorate. Il riferimento a GPT-4, un nuovo modello OpenAI in grado di rispondere con testo a messaggi scritti o visivi, arriva mentre le aziende si affrettano a costruire sofisticati sistemi di chat utilizzando la tecnologia. Ad esempio, Microsoft ha recentemente confermato che il suo motore di ricerca Bing aggiornato è in esecuzione sul modello GPT-4 da oltre 7 settimane e Google ha recentemente introdotto ufficialmente Vate – proprio sistema di intelligenza artificiale generativa basato su LaMDA.
Le preoccupazioni sull'intelligenza artificiale esistono da molto tempo, ma la corsa all'adozione della tecnologia più avanzata è evidente intelligenza artificiale il primo è già allarmante. "Negli ultimi mesi, i laboratori di intelligenza artificiale sono stati coinvolti in una corsa incontrollata per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro autori, può comprendere, prevedere o controllare in modo affidabile", afferma la lettera.
La lettera è stata pubblicata dall'organizzazione no-profit Future of Life Institute (FLI), che lavora per ridurre al minimo i rischi catastrofici ed esistenziali globali e l'uso improprio delle nuove tecnologie, in particolare l'IA. In precedenza, Musk aveva donato 10 milioni di dollari a FLI per la ricerca sulla sicurezza dell'IA. Oltre a lui e Wozniak, i firmatari includono un certo numero di leader mondiali nel campo dell'intelligenza artificiale, come il presidente del Center for AI e della politica digitale Mark Rothenberg, il fisico del MIT e presidente della FLI Max Tegmark e l'autore Yuval Noah Harari.
Harari è anche coautore di un editoriale sul New York Times la scorsa settimana che mette in guardia dai rischi associati intelligenza artificiale, su cui hanno lavorato con lui i fondatori del Center for Humane Technologies e altri firmatari della lettera aperta, Tristan Harris e Aza Raskin.
La chiamata fa seguito a un sondaggio dello scorso anno su oltre 700 ricercatori di machine learning in cui quasi la metà ha affermato che c'era circa il 10% di possibilità di "conseguenze estremamente negative" dall'IA, inclusa l'estinzione umana. Alla domanda sulla sicurezza nella ricerca sull'IA, il 68% degli intervistati ha affermato che è necessario fare di più o molto di più.
Leggi anche: