Root NationNyheterIT-nyheterTeknikexperter kräver ett stopp för AI-experiment

Teknikexperter kräver ett stopp för AI-experiment

-

Teknikledare och framstående AI-forskare har skrivit på öppet brev, som uppmanar AI-labb och företag att "omedelbart avbryta" sitt arbete.

Undertecknarna, inklusive Steve Wozniak och Elon Musk, är överens om att riskerna kräver minst ett sex månaders uppehåll från produktionen av teknologier som går utöver räckvidden GPT-4. Detta för att få ut glädjen och tillfredsställelsen av de AI-system som finns nu, och för att låta människor anpassa sig till dem och se att de är användbara.

Teknikledare och experter kräver ett stopp för AI-experiment

Brevet tillägger att försiktighet och eftertanke krävs för att säkerställa säkerheten för AI-system, men de ignoreras. Hänvisningen till GPT-4, en ny OpenAI-modell som kan svara med text på skrivna eller visuella meddelanden, kommer när företag tävlar om att bygga sofistikerade chattsystem med hjälp av tekniken. Exempel, Microsoft bekräftade nyligen att dess uppdaterade Bing-sökmotor har körts på GPT-4-modellen i mer än 7 veckor, och Google introducerade nyligen officiellt Bard – eget generativt artificiell intelligenssystem baserat på LaMDA.

Oron för AI har funnits länge, men kapplöpningen att ta till sig den mest avancerade tekniken är uppenbar artificiell intelligens den första är redan alarmerande. "Under de senaste månaderna har AI-labb varit indragna i ett okontrollerat lopp för att utveckla och implementera allt kraftfullare digitala sinnen som ingen - inte ens deras författare - kan förstå, förutsäga eller på ett tillförlitligt sätt kontrollera", stod det i brevet.

Teknikledare och experter kräver ett stopp för AI-experiment

Brevet publicerades av den ideella organisationen Future of Life Institute (FLI), som arbetar för att minimera globala katastrofala och existentiella risker och missbruk av ny teknik, i synnerhet AI. Tidigare har Musk donerat 10 miljoner dollar till FLI för AI-säkerhetsforskning. Förutom honom och Wozniak har undertecknarna ett antal världsledare inom AI-området, såsom Center for AI och Digital Policy-president Mark Rothenberg, MIT-fysiker och FLI-president Max Tegmark och författaren Yuval Noah Harari.

Harari var också medförfattare till en artikel i New York Times förra veckan som varnade för riskerna med artificiell intelligens, där grundarna av Center for Humane Technologies och andra undertecknare av det öppna brevet, Tristan Harris och Aza Raskin, arbetade med honom.

Uppropet följer en undersökning förra året av mer än 700 maskininlärningsforskare där nästan hälften sa att det fanns cirka 10 % chans för "extremt dåliga konsekvenser" från AI, inklusive mänsklig utrotning. På frågan om säkerhet i AI-forskning sa 68 % av de tillfrågade att mer eller mycket mer måste göras.

Läs också:

DzhereloEngadget
Bli Medlem
Meddela om
gäst

0 Kommentarer
Inbäddade recensioner
Visa alla kommentarer