Payshanba, 28-mart, 2024-yil

ish stoli v4.2.1

Root NationNoviniIT yangiliklariTexnologiya mutaxassislari AI tajribalarini to'xtatishni talab qilmoqdalar

Texnologiya mutaxassislari AI tajribalarini to'xtatishni talab qilmoqdalar

-

Texnologiya rahbarlari va taniqli AI tadqiqotchilari imzo chekishdi ochiq xat, bu AI laboratoriyalari va kompaniyalarni o'z ishlarini "darhol to'xtatib turishga" chaqiradi.

Imzolovchilar, jumladan Stiv Voznyak va Ilon Mask, xavf-xatarlar doirasidan tashqariga chiqadigan texnologiyalarni ishlab chiqarishdan kamida olti oylik tanaffus talab qilishiga rozi. Xetafe-4. Bu hozir mavjud bo'lgan AI tizimlaridan quvonch va qoniqishni olish va odamlarga ularga moslashishga va ular foydali ekanligini ko'rishga imkon berishdir.

Texnologiya yetakchilari va mutaxassislar AI tajribalarini to‘xtatishga chaqirmoqda

Maktubda AI tizimlari xavfsizligini taʼminlash uchun ehtiyotkorlik va oldindan oʻylash zarurligi, biroq ular eʼtibordan chetda qolayotgani qoʻshimcha qilinadi. Yozma yoki vizual xabarlarga matn bilan javob bera oladigan yangi OpenAI modeli GPT-4 ga havola kompaniyalar texnologiyadan foydalangan holda murakkab chat tizimlarini yaratish poygasida paydo bo'ladi. Misol, Microsoft yaqinda uning yangilangan Bing qidiruvi GPT-4 modelida 7 haftadan ko'proq vaqt davomida ishlayotganini tasdiqladi va Google yaqinda rasman taqdim etdi. Bard - LaMDA-ga asoslangan o'zining generativ sun'iy intellekt tizimi.

AI haqida tashvishlar uzoq vaqtdan beri mavjud, ammo eng ilg'or texnologiyani o'zlashtirish uchun poyga aniq sun'iy intellekt birinchisi allaqachon tashvishga solmoqda. “So‘nggi oylarda sun’iy intellekt laboratoriyalari hech kim, hatto ularning mualliflari ham tushuna olmaydigan, bashorat qila olmaydigan yoki ishonchli tarzda boshqara olmaydigan kuchli raqamli aqllarni ishlab chiqish va amalga oshirish bo‘yicha nazoratsiz poygaga kirishdi”, — deyiladi maktubda.

Texnologiya yetakchilari va mutaxassislar AI tajribalarini to‘xtatishga chaqirmoqda

Maktub global halokatli va ekzistensial xavflarni va yangi texnologiyalardan, xususan, AIdan noto'g'ri foydalanishni minimallashtirish bilan shug'ullanadigan Future of Life Institute (FLI) notijorat tashkiloti tomonidan nashr etilgan. Avvalroq Mask AI xavfsizligini tadqiq qilish uchun FLIga 10 million dollar xayriya qilgan edi. U va Voznyakdan tashqari, imzo qoʻyganlar qatorida sunʼiy intellekt sohasidagi bir qator jahon yetakchilari, jumladan, AI va raqamli siyosat markazi prezidenti Mark Rotenberg, MIT fizigi va FLI prezidenti Maks Tegmark va muallif Yuval Noa Harari ham bor.

Harari o'tgan hafta Nyu-York Tayms gazetasida hammualliflik bilan bog'liq xavflar haqida ogohlantirgan. sun'iy intellekt, unda Gumanitar texnologiyalar markazi asoschilari va ochiq xatni imzolagan boshqa shaxslar Tristan Xarris va Aza Raskin u bilan ishlagan.

Bu chaqiruv oʻtgan yili 700 dan ortiq mashinasozlik tadqiqotchilari ishtirokida oʻtkazilgan soʻrovdan soʻng boʻlib, ularning deyarli yarmi sunʼiy intellektning “oʻta yomon oqibatlari”, jumladan, insonning yoʻq boʻlib ketishi ehtimoli 10% ga yaqinligini aytgan. AI tadqiqotida xavfsizlik haqida so'ralganda, respondentlarning 68 foizi ko'proq yoki ko'proq narsa qilish kerakligini aytdi.

Shuningdek o'qing:

Ro'yxatdan o'tish
Xabar berish
mehmon

0 Izoh
O'rnatilgan sharhlar
Barcha sharhlarni ko'ring
Boshqa maqolalar
Yangilanishlarga obuna bo'ling

Oxirgi izohlar

Hozir mashhur
0
Fikrlaringiz bizga yoqadi, izoh qoldiring.x