Root NationМэдээ мэдээлэлМэдээллийн технологийн мэдээТехнологийн мэргэжилтнүүд хиймэл оюун ухааны туршилтыг зогсоохыг шаардаж байна

Технологийн мэргэжилтнүүд хиймэл оюун ухааны туршилтыг зогсоохыг шаардаж байна

-

Технологийн удирдагчид болон AI судлаачид гарын үсэг зурлаа нээлттэй захидал, энэ нь хиймэл оюун ухааны лаборатори болон компаниудыг ажлаа "нэн даруй зогсоохыг" уриалж байна.

Стив Возняк, Элон Маск зэрэг гарын үсэг зурсан талууд эрсдэл нь хамрах хүрээнээс давсан технологи үйлдвэрлэхээс дор хаяж зургаан сарын завсарлага шаарддаг гэдэгтэй санал нэг байна. GPT-4. Энэ нь одоо байгаа AI системүүдээс баяр баясгалан, сэтгэл ханамжийг авч, хүмүүст тэдгээрт дасан зохицож, тэдгээр нь ашигтай гэдгийг харах боломжийг олгох явдал юм.

Технологийн удирдагчид болон мэргэжилтнүүд хиймэл оюун ухааны туршилтыг зогсоохыг уриалж байна

Уг захидалд AI системийн аюулгүй байдлыг хангахын тулд болгоомжтой, урьдчилан бодох хэрэгтэй гэж нэмж хэлсэн боловч тэдгээрийг үл тоомсорлож байна. GPT-4, OpenAI шинэ загвар нь бичгээр эсвэл дүрс бичлэгт мессеж илгээх боломжтой бөгөөд энэ нь компаниуд технологийг ашиглан боловсронгуй чатын системийг бий болгохоор уралдаж байгаатай холбоотой юм. Жишээ нь, Microsoft Саяхан шинэчлэгдсэн Bing хайлтын систем нь GPT-4 загвар дээр 7 долоо хоног ажиллаж байгааг баталж, Google саяхан албан ёсоор танилцууллаа. Бард – LaMDA дээр суурилсан өөрийн үүсгэгч хиймэл оюун ухааны систем.

Хиймэл оюун ухаантай холбоотой санаа зовоосон асуудал эрт дээр үеэс бий болсон ч хамгийн дэвшилтэт технологийг нэвтрүүлэх уралдаан илт харагдаж байна хиймэл оюун эхнийх нь аль хэдийн түгшүүр төрүүлж байна. "Сүүлийн саруудад хиймэл оюун ухааны лабораториуд хэн ч, тэр байтугай зохиогчид нь ч ойлгож, урьдчилан таамаглаж, найдвартай удирдаж чадахгүй улам бүр хүчирхэг дижитал оюун ухааныг хөгжүүлэх, хэрэгжүүлэх хяналтгүй уралдаанд оролцож байна" гэж захидалд дурджээ.

Технологийн удирдагчид болон мэргэжилтнүүд хиймэл оюун ухааны туршилтыг зогсоохыг уриалж байна

Энэхүү захидлыг дэлхийн сүйрлийн болон оршин тогтнох эрсдэл, шинэ технологи, тэр дундаа хиймэл оюун ухааныг буруугаар ашиглахыг багасгах зорилготой ашгийн бус байгууллага болох Future of Life Institute (FLI) нийтэлсэн байна. Өмнө нь Маск хиймэл оюун ухааны аюулгүй байдлын судалгаанд зориулж FLI-д 10 сая доллар хандивласан. Түүнтэй болон Вознякаас гадна хиймэл оюун ухаан, дижитал бодлогын төвийн ерөнхийлөгч Марк Ротенберг, MIT физикч, FLI-ийн ерөнхийлөгч Макс Тегмарк, зохиолч Ювал Ноа Харари зэрэг хиймэл оюун ухааны салбарт дэлхийн хэд хэдэн удирдагчид гарын үсэг зурсан байна.

Харари мөн өнгөрсөн долоо хоногт Нью-Йорк Таймс сонинд хамтран бичсэн нийтлэлд үүнтэй холбоотой эрсдэлүүдийн талаар анхааруулжээ. хиймэл оюунХүмүүнлэгийн технологийн төвийн үүсгэн байгуулагчид болон бусад нээлттэй захидалд гарын үсэг зурсан Тристан Харрис, Аза Раскин нар түүнтэй хамтран ажилласан.

Энэхүү уриалга нь өнгөрсөн жил 700 гаруй машин сургалтын судлаачдын дунд явуулсан санал асуулгын дараа бараг тал хувь нь хиймэл оюун ухаанаас үүдэлтэй "маш муу үр дагавар", тэр дундаа хүн төрөлхтний устах эрсдэл 10 орчим хувьтай гэж мэдэгджээ. Хиймэл оюун ухааны судалгааны аюулгүй байдлын талаар асуухад судалгаанд оролцогчдын 68% нь илүү их юм уу, илүү ихийг хийх шаардлагатай гэж хариулжээ.

Мөн уншина уу:

Эх сурвалжengadget
Бүртгүүлэх
тухай мэдэгдэх
зочин

0 Сэтгэгдэл
Суулгасан тойм
Бүх сэтгэгдлийг харах
Бусад нийтлэлүүд
Шинэчлэлтүүдийг авахын тулд бүртгүүлнэ үү
Одоо алдартай