Root NationXəbərlərİT xəbərləriTexnologiya mütəxəssisləri süni intellektlə aparılan təcrübələrin dayandırılmasını tələb edirlər

Texnologiya mütəxəssisləri süni intellektlə aparılan təcrübələrin dayandırılmasını tələb edirlər

-

Texnologiya liderləri və tanınmış süni intellekt tədqiqatçıları imza atıblar açıq məktub, bu, AI laboratoriyalarını və şirkətləri işlərini "dərhal dayandırmağa" çağırır.

Stiv Voznyak və İlon Mask da daxil olmaqla, imzalayanlar razılaşırlar ki, risklər əhatə dairəsindən kənara çıxan texnologiyaların istehsalına ən azı altı aylıq fasilə tələb edir. GPT-4. Bu, hazırda mövcud olan süni intellekt sistemlərindən sevinc və məmnunluq əldə etmək və insanlara onlara uyğunlaşmaq və onların faydalı olduğunu görmək imkanı verməkdir.

Texnologiya liderləri və ekspertlər süni intellektlə aparılan təcrübələri dayandırmağa çağırırlar

Məktubda əlavə edilir ki, süni intellekt sistemlərinin təhlükəsizliyini təmin etmək üçün ehtiyatlılıq və qabaqcadan düşünmək lazımdır, lakin onlara məhəl qoyulmur. Yazılı və ya vizual mesajlara mətnlə cavab verə bilən yeni OpenAI modeli olan GPT-4-ə istinad şirkətlərin texnologiyadan istifadə edərək mürəkkəb söhbət sistemləri qurmaq yarışı zamanı gəlir. Məsələn, Microsoft bu yaxınlarda təsdiqlədi ki, onun yenilənmiş Bing axtarış motoru 4 həftədən artıqdır ki, GPT-7 modelində işləyir və Google bu yaxınlarda rəsmi olaraq təqdim etdi. Bard – LaMDA əsasında öz generativ süni intellekt sistemi.

Süni intellektlə bağlı narahatlıqlar çoxdan mövcuddur, lakin ən qabaqcıl texnologiyanı mənimsəmək yarışı göz qabağındadır süni intellekt birincisi artıq narahatedicidir. Məktubda deyilir: "Son aylarda süni intellekt laboratoriyaları heç kimin, hətta onların müəlliflərinin də, başa düşə, proqnozlaşdıra və ya etibarlı şəkildə idarə edə bilmədiyi getdikcə daha güclü rəqəmsal ağılları inkişaf etdirmək və həyata keçirmək üçün nəzarətsiz yarışa giriblər".

Texnologiya liderləri və ekspertlər süni intellektlə aparılan təcrübələri dayandırmağa çağırırlar

Məktub qlobal fəlakətli və ekzistensial riskləri və yeni texnologiyalardan, xüsusən də süni intellektdən sui-istifadəni minimuma endirməyə çalışan Future of Life Institute (FLI) qeyri-kommersiya təşkilatı tərəfindən dərc edilib. Əvvəllər Musk süni intellektlə təhlükəsizlik araşdırması üçün FLI-a 10 milyon dollar bağışlamışdı. Onu və Voznyakdan başqa, imzalayanlar arasında süni intellekt sahəsində bir sıra dünya liderləri, məsələn, Süni İntellekt və Rəqəmsal Siyasət Mərkəzinin prezidenti Mark Rotenberq, MİT fiziki və FLI prezidenti Maks Teqmark və müəllif Yuval Noah Harari var.

Harari, eyni zamanda, keçən həftə New York Times-da risklərlə bağlı xəbərdarlıq edən məqalənin həmmüəllifi oldu. süni intellektHumanitar Texnologiyalar Mərkəzinin təsisçiləri və açıq məktubu imzalayan digər şəxslər Tristan Harris və Aza Raskin onunla birlikdə işləmişdir.

Çağırış keçən il 700-dən çox maşın öyrənmə tədqiqatçısının sorğusundan sonra edilir ki, onların təxminən yarısı süni intellektdən "son dərəcə pis nəticələr", o cümlədən insanların məhv olması ehtimalının təxminən 10% olduğunu söylədi. Süni intellektlə bağlı araşdırmada təhlükəsizliklə bağlı suala cavab verənlərin 68%-i bildirib ki, daha çox və ya daha çox iş görülməlidir.

Həmçinin oxuyun:

JereloEngadget
Qeydiyyatdan keçmək
Haqqında məlumat verin
qonaq

0 Şərhlər
Daxil edilmiş rəylər
Bütün şərhlərə baxın
Digər məqalələr
Yeniliklər üçün abunə olun
İndi populyardır