Bo`lim: IT yangiliklari

Texnologiya mutaxassislari AI tajribalarini to'xtatishni talab qilmoqdalar

Texnologiya rahbarlari va taniqli AI tadqiqotchilari imzo chekishdi ochiq xat, bu AI laboratoriyalari va kompaniyalarni o'z ishlarini "darhol to'xtatib turishga" chaqiradi.

Imzolovchilar, jumladan Stiv Voznyak va Ilon Mask, xavf-xatarlar doirasidan tashqariga chiqadigan texnologiyalarni ishlab chiqarishdan kamida olti oylik tanaffus talab qilishiga rozi. Xetafe-4. Bu hozir mavjud bo'lgan AI tizimlaridan quvonch va qoniqishni olish va odamlarga ularga moslashishga va ular foydali ekanligini ko'rishga imkon berishdir.

Maktubda AI tizimlari xavfsizligini taʼminlash uchun ehtiyotkorlik va oldindan oʻylash zarurligi, biroq ular eʼtibordan chetda qolayotgani qoʻshimcha qilinadi. Yozma yoki vizual xabarlarga matn bilan javob bera oladigan yangi OpenAI modeli GPT-4 ga havola kompaniyalar texnologiyadan foydalangan holda murakkab chat tizimlarini yaratish poygasida paydo bo'ladi. Misol, Microsoft yaqinda uning yangilangan Bing qidiruvi GPT-4 modelida 7 haftadan ko'proq vaqt davomida ishlayotganini tasdiqladi va Google yaqinda rasman taqdim etdi. Bard - LaMDA-ga asoslangan o'zining generativ sun'iy intellekt tizimi.

AI haqida tashvishlar uzoq vaqtdan beri mavjud, ammo eng ilg'or texnologiyani o'zlashtirish uchun poyga aniq sun'iy intellekt birinchisi allaqachon tashvishga solmoqda. “So‘nggi oylarda sun’iy intellekt laboratoriyalari hech kim, hatto ularning mualliflari ham tushuna olmaydigan, bashorat qila olmaydigan yoki ishonchli tarzda boshqara olmaydigan kuchli raqamli aqllarni ishlab chiqish va amalga oshirish bo‘yicha nazoratsiz poygaga kirishdi”, — deyiladi maktubda.

Maktub global halokatli va ekzistensial xavflarni va yangi texnologiyalardan, xususan, AIdan noto'g'ri foydalanishni minimallashtirish bilan shug'ullanadigan Future of Life Institute (FLI) notijorat tashkiloti tomonidan nashr etilgan. Avvalroq Mask AI xavfsizligini tadqiq qilish uchun FLIga 10 million dollar xayriya qilgan edi. U va Voznyakdan tashqari, imzo qoʻyganlar qatorida sunʼiy intellekt sohasidagi bir qator jahon yetakchilari, jumladan, AI va raqamli siyosat markazi prezidenti Mark Rotenberg, MIT fizigi va FLI prezidenti Maks Tegmark va muallif Yuval Noa Harari ham bor.

Harari o'tgan hafta Nyu-York Tayms gazetasida hammualliflik bilan bog'liq xavflar haqida ogohlantirgan. sun'iy intellekt, unda Gumanitar texnologiyalar markazi asoschilari va ochiq xatni imzolagan boshqa shaxslar Tristan Xarris va Aza Raskin u bilan ishlagan.

Bu chaqiruv oʻtgan yili 700 dan ortiq mashinasozlik tadqiqotchilari ishtirokida oʻtkazilgan soʻrovdan soʻng boʻlib, ularning deyarli yarmi sunʼiy intellektning “oʻta yomon oqibatlari”, jumladan, insonning yoʻq boʻlib ketishi ehtimoli 10% ga yaqinligini aytgan. AI tadqiqotida xavfsizlik haqida so'ralganda, respondentlarning 68 foizi ko'proq yoki ko'proq narsa qilish kerakligini aytdi.

Shuningdek o'qing:

Share
Svitlana Anisimova

Ofis jinnisi, aqldan ozgan o'quvchi, Marvel kinematik olamining muxlisi. Men xursandman 80% aybdorman.

Leave a Reply

Sizning email manzilingiz chop qilinmaydi. Kerakli joylar belgilangan*