Root NationНовиниIT новиниТехнологичните експерти изискват спиране на експериментите с ИИ

Технологичните експерти изискват спиране на експериментите с ИИ

-

Технологични лидери и видни изследователи на AI са подписали отворено писмо, който призовава AI лабораториите и компаниите „незабавно да спрат“ работата си.

Подписалите се, включително Стив Возняк и Илон Мъск, са съгласни, че рисковете изискват поне шестмесечно прекъсване от производството на технологии, които надхвърлят обхвата GPT-4. Това е да извлечем радостта и удовлетворението от съществуващите сега AI системи и да позволим на хората да се адаптират към тях и да видят, че са полезни.

Технологични лидери и експерти призовават за спиране на експериментите с ИИ

В писмото се добавя, че са необходими предпазливост и предвидливост, за да се гарантира безопасността на AI системите, но те се игнорират. Позоваването на GPT-4, нов модел на OpenAI, който може да отговаря с текст на писмени или визуални съобщения, идва в момент, когато компаниите се надпреварват да изграждат сложни системи за чат, използвайки технологията. пример, Microsoft наскоро потвърди, че актуализираната му търсачка Bing работи на модела GPT-4 повече от 7 седмици, а Google наскоро официално представи Бард – собствена генеративна система за изкуствен интелект, базирана на LaMDA.

Притесненията относно AI съществуват от дълго време, но надпреварата за приемане на най-напредналите технологии е очевидна изкуствен интелект първото вече е тревожно. „През последните месеци лабораториите за изкуствен интелект бяха въвлечени в неконтролирана надпревара за разработване и внедряване на все по-мощни дигитални умове, които никой – дори техните автори – не могат да разберат, предвидят или надеждно контролират“, се казва в писмото.

Технологични лидери и експерти призовават за спиране на експериментите с ИИ

Писмото е публикувано от организацията с нестопанска цел Future of Life Institute (FLI), която работи за минимизиране на глобалните катастрофални и екзистенциални рискове и злоупотреба с нови технологии, по-специално AI. Преди това Мъск дари 10 милиона долара на FLI за изследване на сигурността на AI. Освен него и Возняк, подписалите включват редица световни лидери в областта на ИИ, като президента на Центъра за ИИ и цифрова политика Марк Ротенберг, физика от MIT и президента на FLI Макс Тегмарк и автора Ювал Ноа Харари.

Харари също е съавтор на коментар в New York Times миналата седмица, предупреждаващ за рисковете, свързани с изкуствен интелект, по който заедно с него са работили основателите на Центъра за хуманни технологии и други подписали отвореното писмо Тристан Харис и Аза Раскин.

Призивът следва проучване от миналата година сред повече от 700 изследователи на машинно обучение, в което почти половината казаха, че има около 10% шанс за „изключително лоши последици“ от ИИ, включително изчезване на хора. На въпрос за сигурността в изследванията на AI, 68% от анкетираните казаха, че трябва да се направи повече или много повече.

Прочетете също:

DzhereloEngadget
Регистрирай се
Уведомете за
гост

0 Коментари
Вградени рецензии
Вижте всички коментари