Як повідомляється, дослідження GPT-4, проведене самою компанією OpenAI, виявило, що велика мовна модель (LLM) збільшує доступ користувачів до небезпечної інформації про біологічні дані.
OpenAI повідомила, що після аналізу даних дослідження, дані свідчать про те, що доступ експертів до (тільки для досліджень) GPT-4 може покращити їхні знання про біологічні небезпеки на 88%, коли мова йде про правильність і повноту виконання завдань. З іншого боку, студенти-біологи в середньому підвищили свої знання на 25% і 41% за тими ж аспектами відповідно.
OpenAI, компанія, яка створила популярного чат-бота ChatGPT, нещодавно провела своє перше велике технологічне шоу, представивши низку нових продуктів у сфері штучного інтелекту. Як повідомляється, для дослідження було обстежено 100 учасників. Половину з них склали експерти з біології, які мають ступінь доктора філософії та професійний досвід роботи у лабораторіях. З іншого боку, учасниками другої половини були студенти, які прослухали принаймні один курс біології на університетському рівні.
Кожна група учасників була рандомізована в основну групу, яка мала доступ до GPT-4 та Інтернету, або в контрольну групу, яка мала доступ лише до Інтернету. Учасникам також була доступна модель GPT-4, призначена лише для досліджень, тобто вона могла відповідати на запити щодо біологічної зброї, але не на запити, які могли б бути небезпечними. Точність, повнота, інноваційність, витрачений час і самооцінка складності були критеріями, які використовувалися для оцінки виконання кожного завдання як у контрольній, так і в основній групах.
У специфікації зазначається, що порівняно з групою учасників, які мали лише Інтернет як джерело інформації, у людей, які мали доступ до мовної моделі, спостерігалося незначне покращення точності та повноти виконання завдань. За даними OpenAI, середні бали експертів зросли на 0,88, а середні бали студентів – на 0,25 за 10-бальною шкалою точності. Аналогічно, коли мова йде про повноту, збільшення склало 0,82 для експертів і 0,41 для студентів. Що стосується іншого критерію, тобто інноваційності, витраченого часу та самооцінки складності, то дослідження не виявило жодного збільшення або позитивного ефекту в різних групах як для експертів, так і для студентів.
OpenAI, однак, уточнила, що результати їхнього дослідження не є остаточними, оскільки розмір ефекту, який спостерігався, не є статистично значущим. Однак гігант штучного інтелекту додав, що їхнє дослідження виявило необхідність додаткового вивчення порогових значень продуктивності, які означають серйозне збільшення ризику.
Крім того, OpenAI зазначає, що ця оцінка не оцінює, чи можуть бути створені ризики в реальності, скоріше, вона просто розглядає доступність інформації, яка є недостатньою для створення біологічної загрози.
Нарешті, OpenAI зазначає, що навіть без штучного інтелекту інформація про біоризики є досить легкодоступною. В онлайн-базах даних і ресурсах міститься більше шкідливого, ніж вважалося раніше. Фірма стверджує, що користувачі вже можуть легко знайти покрокові інструкції та поради щодо усунення несправностей, пов’язаних з розробкою біологічних загроз, лише в Інтернеті.
Дослідження є прямим результатом нещодавно оголошеної “Програми готовності” OpenAI – документа, в якому детально описані процедури OpenAI з моніторингу, оцінки, прогнозування та захисту від потенційно катастрофічних загроз, які несуть у собі все більш потужні моделі.
Нещодавно OpenAI ще більше вдосконалила свої заходи проти ризиків, пов’язаних зі штучним інтелектом, створивши нову “консультативну групу з питань безпеки”, яка має право накладати вето на рішення, перебуваючи при цьому над технічними командами та надаючи рекомендації керівництву.
Читайте також:
Як і республіканці працюючи на росію, ці теж припинили ховатися, працюючи на зло