Root NationȘtiriștiri ITExperții în tehnologie cer oprirea experimentelor AI

Experții în tehnologie cer oprirea experimentelor AI

-

Liderii tehnologici și cercetători proeminenți în domeniul inteligenței artificiale au semnat scrisoare deschisă, care solicită laboratoarelor de inteligență artificială și companiilor să-și „suspendă imediat” activitatea.

Semnatarii, inclusiv Steve Wozniak și Elon Musk, sunt de acord că riscurile necesită o pauză de cel puțin șase luni de la producția de tehnologii care depășesc domeniul de aplicare. GPT-4. Acest lucru este pentru a obține bucuria și satisfacția din sistemele AI care există acum și pentru a le permite oamenilor să se adapteze la ele și să vadă că sunt utile.

Liderii și experții în tehnologie cer oprirea experimentelor AI

Scrisoarea adaugă că sunt necesare prudență și gândire anticipată pentru a asigura siguranța sistemelor AI, dar acestea sunt ignorate. Referirea la GPT-4, un nou model OpenAI care poate răspunde prin text la mesaje scrise sau vizuale, vine în timp ce companiile se întrec pentru a construi sisteme de chat sofisticate folosind tehnologia. Exemplu, Microsoft a confirmat recent că motorul său de căutare Bing actualizat rulează pe modelul GPT-4 de peste 7 săptămâni, iar Google a introdus recent în mod oficial Bard – sistem propriu de inteligență artificială generativă bazat pe LaMDA.

Preocupările cu privire la IA există de mult timp, dar cursa pentru adoptarea celei mai avansate tehnologii este evidentă inteligenţă artificială primul este deja alarmant. „În ultimele luni, laboratoarele de inteligență artificială au fost implicate într-o cursă necontrolată de a dezvolta și implementa minți digitale din ce în ce mai puternice pe care nimeni – nici măcar autorii lor – nu le poate înțelege, prezice sau controla în mod fiabil”, se arată în scrisoare.

Liderii și experții în tehnologie cer oprirea experimentelor AI

Scrisoarea a fost publicată de organizația non-profit Future of Life Institute (FLI), care lucrează pentru a minimiza riscurile catastrofale și existențiale globale și utilizarea greșită a noilor tehnologii, în special AI. Anterior, Musk a donat 10 milioane de dolari FLI pentru cercetarea securității AI. Pe lângă el și Wozniak, semnatarii includ o serie de lideri mondiali în domeniul AI, cum ar fi Președintele Centrului pentru AI și Politică Digitală Mark Rothenberg, fizicianul MIT și președintele FLI Max Tegmark și autorul Yuval Noah Harari.

Harari a fost, de asemenea, coautor al unui articol de opinie în New York Times săptămâna trecută, avertizând asupra riscurilor asociate inteligenţă artificială, la care au lucrat cu el fondatorii Centrului pentru Tehnologii Umane și alți semnatari ai scrisorii deschise, Tristan Harris și Aza Raskin.

Apelul urmează unui sondaj efectuat de anul trecut a peste 700 de cercetători în domeniul învățării automate, în care aproape jumătate au spus că există o șansă de aproximativ 10% de „consecințe extrem de grave” ale AI, inclusiv dispariția umană. La întrebarea despre securitatea în cercetarea AI, 68% dintre respondenți au spus că trebuie făcut mai mult sau mult mai mult.

Citeste si:

DzhereloEngadget
Inscrie-te
Notifică despre
oaspete

0 Comentarii
Recenzii încorporate
Vezi toate comentariile