Root NationNotiziaGiornale informaticoGli esperti di tecnologia chiedono di fermare gli esperimenti di intelligenza artificiale

Gli esperti di tecnologia chiedono di fermare gli esperimenti di intelligenza artificiale

-

Leader tecnologici e importanti ricercatori di intelligenza artificiale hanno firmato lettera aperta, che invita i laboratori e le aziende di intelligenza artificiale a "sospendere immediatamente" il loro lavoro.

I firmatari, tra cui Steve Wozniak ed Elon Musk, concordano sul fatto che i rischi richiedono una pausa di almeno sei mesi dalla produzione di tecnologie che vanno oltre lo scopo GPT-4. Questo per ottenere la gioia e la soddisfazione dai sistemi di intelligenza artificiale che esistono ora e per consentire alle persone di adattarsi a loro e vedere che sono utili.

I leader e gli esperti di tecnologia chiedono di fermare gli esperimenti di intelligenza artificiale

La lettera aggiunge che sono necessarie cautela e previdenza per garantire la sicurezza dei sistemi di intelligenza artificiale, ma vengono ignorate. Il riferimento a GPT-4, un nuovo modello OpenAI in grado di rispondere con testo a messaggi scritti o visivi, arriva mentre le aziende corrono a costruire sofisticati sistemi di chat utilizzando la tecnologia. Esempio, Microsoft ha recentemente confermato che il suo motore di ricerca Bing aggiornato è in esecuzione sul modello GPT-4 da oltre 7 settimane e Google ha recentemente introdotto ufficialmente Vate – proprio sistema di intelligenza artificiale generativa basato su LaMDA.

Le preoccupazioni sull'intelligenza artificiale esistono da molto tempo, ma la corsa all'adozione della tecnologia più avanzata è evidente intelligenza artificiale il primo è già allarmante. "Negli ultimi mesi, i laboratori di intelligenza artificiale sono stati coinvolti in una corsa incontrollata per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro autori, può comprendere, prevedere o controllare in modo affidabile", afferma la lettera.

I leader e gli esperti di tecnologia chiedono di fermare gli esperimenti di intelligenza artificiale

La lettera è stata pubblicata dall'organizzazione no-profit Future of Life Institute (FLI), che lavora per ridurre al minimo i rischi catastrofici ed esistenziali globali e l'uso improprio delle nuove tecnologie, in particolare l'IA. In precedenza, Musk aveva donato 10 milioni di dollari a FLI per la ricerca sulla sicurezza dell'IA. Oltre a lui e Wozniak, i firmatari includono un certo numero di leader mondiali nel campo dell'intelligenza artificiale, come il presidente del Center for AI e della politica digitale Mark Rothenberg, il fisico del MIT e presidente della FLI Max Tegmark e l'autore Yuval Noah Harari.

Harari è anche coautore di un editoriale sul New York Times la scorsa settimana che mette in guardia dai rischi associati intelligenza artificiale, su cui hanno lavorato con lui i fondatori del Center for Humane Technologies e altri firmatari della lettera aperta, Tristan Harris e Aza Raskin.

La chiamata fa seguito a un sondaggio dello scorso anno su oltre 700 ricercatori di machine learning in cui quasi la metà ha affermato che c'era circa il 10% di possibilità di "conseguenze estremamente negative" dall'IA, inclusa l'estinzione umana. Alla domanda sulla sicurezza nella ricerca sull'IA, il 68% degli intervistati ha affermato che è necessario fare di più o molto di più.

Leggi anche:

Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti