Root NationNovinkyIT novinkyTechnologickí experti požadujú zastavenie experimentov s AI

Technologickí experti požadujú zastavenie experimentov s AI

-

Technologickí lídri a prominentní výskumníci AI podpísali otvorený list, ktorá vyzýva AI laboratóriá a spoločnosti, aby „okamžite pozastavili“ svoju prácu.

Signatári vrátane Steva Wozniaka a Elona Muska sa zhodli, že riziká si vyžadujú najmenej šesťmesačnú prestávku od výroby technológií, ktoré presahujú rámec GPT-4. Cieľom je získať radosť a uspokojenie zo systémov AI, ktoré teraz existujú, a umožniť ľuďom prispôsobiť sa im a vidieť, že sú užitočné.

Technologickí lídri a experti vyzývajú na zastavenie experimentov AI

List dodáva, že na zaistenie bezpečnosti systémov umelej inteligencie je potrebná opatrnosť a predvídavosť, no ignorujú sa. Odkaz na GPT-4, nový model OpenAI, ktorý dokáže reagovať textom na písané alebo vizuálne správy, prichádza v čase, keď spoločnosti pretekajú v budovaní sofistikovaných chatovacích systémov pomocou tejto technológie. príklad, Microsoft nedávno potvrdil, že jej aktualizovaný vyhľadávací nástroj Bing beží na modeli GPT-4 už viac ako 7 týždňov a Google nedávno oficiálne predstavil Bard – vlastný generatívny systém umelej inteligencie založený na LaMDA.

Obavy z AI existovali už dlho, ale preteky o prijatie najpokročilejšej technológie sú evidentné umela inteligencia už prvý je alarmujúci. „V posledných mesiacoch sa laboratóriá AI zaplietli do nekontrolovaných pretekov vo vývoji a implementácii čoraz výkonnejších digitálnych myslí, ktorým nikto – dokonca ani ich autori – nerozumie, nedokáže predpovedať alebo spoľahlivo kontrolovať,“ píše sa v liste.

Technologickí lídri a experti vyzývajú na zastavenie experimentov AI

List zverejnila nezisková organizácia Future of Life Institute (FLI), ktorá sa snaží minimalizovať globálne katastrofické a existenčné riziká a zneužívanie nových technológií, najmä AI. Predtým Musk daroval 10 miliónov dolárov FLI na výskum bezpečnosti AI. Okrem neho a Wozniaka je medzi signatármi viacero svetových lídrov v oblasti AI, ako napríklad prezident Centra pre AI a digitálnu politiku Mark Rothenberg, fyzik MIT a prezident FLI Max Tegmark a autor Yuval Noah Harari.

Harari bol tiež spoluautorom príspevku v New York Times minulý týždeň, v ktorom varoval pred rizikami, ktoré s tým súvisia umela inteligencia, na ktorej s ním pracovali zakladatelia Centra pre humánne technológie a ďalší signatári otvoreného listu Tristan Harris a Aza Raskin.

Výzva nasleduje po minuloročnom prieskume medzi viac ako 700 výskumníkmi strojového učenia, v ktorom takmer polovica uviedla, že existuje asi 10% šanca na „extrémne zlé následky“ AI, vrátane vyhynutia ľudí. Na otázku o bezpečnosti vo výskume AI 68 % respondentov uviedlo, že je potrebné urobiť viac alebo oveľa viac.

Prečítajte si tiež:

DzhereloEngadget
Prihlásiť Se
Upozorniť na
host

0 Komentáre
Vložené recenzie
Zobraziť všetky komentáre
Ďalšie články
Prihláste sa na odber aktualizácií
Teraz populárne