Root NationNieuwsIT-nieuwsTechnologie-experts eisen stopzetting van AI-experimenten

Technologie-experts eisen stopzetting van AI-experimenten

-

Technologieleiders en prominente AI-onderzoekers hebben getekend open brief, die AI-labs en bedrijven oproept om hun werk "onmiddellijk op te schorten".

Ondertekenaars, waaronder Steve Wozniak en Elon Musk, zijn het erover eens dat de risico's een onderbreking van ten minste zes maanden vereisen van de productie van technologieën die verder gaan dan de reikwijdte GPT-4. Dit om het plezier en de voldoening te halen uit de AI-systemen die nu bestaan, en om mensen in staat te stellen zich eraan aan te passen en in te zien dat ze nuttig zijn.

Technologieleiders en experts roepen op tot stopzetting van AI-experimenten

De brief voegt eraan toe dat voorzichtigheid en vooruitziendheid nodig zijn om de veiligheid van AI-systemen te garanderen, maar dat deze worden genegeerd. De verwijzing naar GPT-4, een nieuw OpenAI-model dat met tekst kan reageren op geschreven of visuele berichten, komt terwijl bedrijven zich haasten om geavanceerde chatsystemen te bouwen met behulp van de technologie. Voorbeeld, Microsoft heeft onlangs bevestigd dat de bijgewerkte Bing-zoekmachine al meer dan zeven weken op het GPT-4-model draait, en Google heeft onlangs officieel geïntroduceerd Bard – eigen generatief artificiële intelligentiesysteem op basis van LaMDA.

Bezorgdheid over AI bestaat al heel lang, maar de race om de meest geavanceerde technologie toe te passen is duidelijk kunstmatige intelligentie de eerste is al alarmerend. "De afgelopen maanden zijn AI-labs verwikkeld in een ongecontroleerde race om steeds krachtigere digitale geesten te ontwikkelen en te implementeren die niemand - zelfs niet hun auteurs - kan begrijpen, voorspellen of op betrouwbare wijze controleren", aldus de brief.

Technologieleiders en experts roepen op tot stopzetting van AI-experimenten

De brief is gepubliceerd door de non-profitorganisatie Future of Life Institute (FLI), die zich inzet voor het minimaliseren van wereldwijde catastrofale en existentiële risico's en misbruik van nieuwe technologieën, met name AI. Eerder schonk Musk $10 miljoen aan FLI voor AI-beveiligingsonderzoek. Naast hem en Wozniak zijn er onder de ondertekenaars een aantal wereldleiders op het gebied van AI, zoals Center for AI and Digital Policy President Mark Rothenberg, MIT-natuurkundige en FLI-president Max Tegmark, en auteur Yuval Noah Harari.

Harari was vorige week ook co-auteur van een opiniestuk in de New York Times waarin hij waarschuwde voor de risico's die hieraan verbonden zijn kunstmatige intelligentie, waaraan de oprichters van het Center for Humane Technologies en andere ondertekenaars van de open brief, Tristan Harris en Aza Raskin, met hem hebben samengewerkt.

De oproep volgt op een onderzoek vorig jaar onder meer dan 700 onderzoekers op het gebied van machine learning, waarin bijna de helft zei dat er een kans van ongeveer 10% was op "extreem slechte gevolgen" van AI, waaronder het uitsterven van de mens. Op de vraag naar beveiliging in AI-onderzoek zei 68% van de respondenten dat er meer of veel meer moet worden gedaan.

Lees ook:

Aanmelden
Informeer over
gast

0 Heb je vragen? Stel ze hier.
Ingesloten beoordelingen
Bekijk alle reacties