Čtvrtek 28. března 2024

desktop v4.2.1

Root NationZprávyIT novinyTechnologičtí experti požadují zastavení experimentů s umělou inteligencí

Technologičtí experti požadují zastavení experimentů s umělou inteligencí

-

Technologičtí lídři a prominentní výzkumníci AI podepsali otevřený dopis, která vyzývá AI laboratoře a společnosti, aby „okamžitě pozastavily“ svou práci.

Signatáři, včetně Steva Wozniaka a Elona Muska, se shodují, že rizika vyžadují minimálně šestiměsíční přestávku od výroby technologií, které přesahují rámec GPT-4. Cílem je získat radost a uspokojení ze systémů AI, které nyní existují, a umožnit lidem, aby se jim přizpůsobili a viděli, že jsou užitečné.

Technologičtí lídři a experti volají po zastavení experimentů s umělou inteligencí

Dopis dodává, že k zajištění bezpečnosti systémů umělé inteligence je nutná opatrnost a předvídavost, ale jsou ignorovány. Odkaz na GPT-4, nový model OpenAI, který dokáže reagovat textem na psané nebo vizuální zprávy, přichází v době, kdy se společnosti předhánějí v budování sofistikovaných chatovacích systémů využívajících tuto technologii. Příklad, Microsoft nedávno potvrdila, že její aktualizovaný vyhledávač Bing běží na modelu GPT-4 již více než 7 týdnů a Google nedávno oficiálně představil Bard – vlastní generativní systém umělé inteligence založený na LaMDA.

Obavy z umělé inteligence existují již dlouhou dobu, ale závod o přijetí nejpokročilejší technologie je evidentní umělá inteligence první je již alarmující. „V posledních měsících se laboratoře umělé inteligence zapletly do nekontrolovaného závodu ve vývoji a implementaci stále výkonnějších digitálních myslí, kterým nikdo – ani jejich autoři – nemůže porozumět, předvídat nebo spolehlivě ovládat,“ píše se v dopise.

Technologičtí lídři a experti volají po zastavení experimentů s umělou inteligencí

Dopis zveřejnila nezisková organizace Future of Life Institute (FLI), která se snaží minimalizovat globální katastrofická a existenční rizika a zneužívání nových technologií, zejména AI. Dříve Musk daroval 10 milionů dolarů FLI na výzkum bezpečnosti AI. Kromě něj a Wozniaka je mezi signatáři řada světových lídrů v oblasti umělé inteligence, například prezident Centra pro umělou inteligenci a digitální politiky Mark Rothenberg, fyzik MIT a prezident FLI Max Tegmark a autor Yuval Noah Harari.

Harari byl také spoluautorem příspěvku v New York Times minulý týden, který varoval před riziky, která s tím souvisí umělá inteligence, na kterém s ním pracovali zakladatelé Centra pro humánní technologie a další signatáři otevřeného dopisu Tristan Harris a Aza Raskin.

Výzva navazuje na loňský průzkum více než 700 výzkumníků strojového učení, ve kterém téměř polovina uvedla, že existuje asi 10% šance na „extrémně špatné následky“ umělé inteligence, včetně vyhynutí lidí. Když se ptali na bezpečnost ve výzkumu AI, 68 % respondentů uvedlo, že je třeba udělat více nebo mnohem více.

Přečtěte si také:

DzhereloEngadget
Přihlásit se
Upozornit na
host

0 Komentáře
Vložené recenze
Zobrazit všechny komentáře
Další články
Přihlaste se k odběru aktualizací

Nedávné Komentáře

Nyní populární
0
Milujeme vaše myšlenky, prosím komentujte.x