Таємничий Project Q* від OpenAI викликає занепокоєння серед експертів. Невже він може бути небезпечним для людства? Що про нього відомо? Після того, як минулого тижня Сема Альтмана спочатку звільнили і він з командою майже перейшов у Microsoft, потім таки повернувся назад на своє робоче місце (про це ми писали ось тут), OpenAI знову в новинах. Цього разу через те, що деякі дослідники називають можливою загрозою для людства. Так, ви все правильно прочитали, саме загрозою для людства.
Справжнє потрясіння у світі технологій викликав Project Q* – нерозголошений проект загального штучного інтелекту (AGI) – вимовляється Q-Star. Незважаючи на те, що цей проект знаходиться на початковій стадії, він вважається справді новаторським у розробках AGI. Однак деякі бачать у ньому небезпеку для людства.
Таємний проект штучного інтелекту, розроблений відомою лабораторією штучного інтелекту OpenAI, має потенціал революціонізувати технології та суспільство загалом. Але це також ставить певні етичні питання щодо ризиків. У міру того, як з’являються подробиці про приголомшливі можливості Project Q*, з’являються все більше припущень про те, що це може означати для майбутнього людства.
Також цікаво: Історія з OpenAI: Що це було і що чекає на компанію
Що таке загальний штучний інтелект (AGI)?
Щоб зрозуміти ажіотаж навколо Project Q* (Q-Star), давайте спочатку спробуємо розібратись, у чому полягає концепція загального штучного інтелекту (AGI). У той час, як сучасні системи штучного інтелекту відмінно справляються з вузькими специфічними завданнями, такими як гра в шахи або генерування зображень, загальний штучний інтелект стосується машин, які можуть навчатися та мислити на рівні людини в багатьох сферах. Тобто, вони можуть навчатися, як малі діти в школі, наприклад, основам математики, хімії, біології тощо.
Загальний штучний інтелект (ЗШІ) — це тип машинного інтелекту, який гіпотетично може імітувати інтелект або поведінку людини, зі здатністю навчатися та застосовувати цей потенціал для вирішення різноманітних проблем. AGI також називають сильним штучним інтелектом, повним штучним інтелектом або штучним інтелектом людського рівня. Загальний штучний інтелект відрізняється від слабкого або вузького ШІ, який здатний виконувати лише конкретні або спеціалізовані завдання в межах заданих параметрів. ЗШІ зможе самостійно розв’язувати різноманітні складні задачі з різних сфер знань.
Створення ЗШІ є основним напрямком досліджень штучного інтелекту таких компаній, як DeepMind та Anthropic. Саме ЗШІ є дуже популярною темою в науково-фантастичній літературі та може визначати майбутні дослідження. Деякі стверджують, що можна створити ЗШІ протягом років або десятиліть, інші ж стверджують, що це може зайняти століття або більше. Але є й такі, що вважають, що цього ніколи не вдасться досягти. Дехто бачив зачатки ЗШІ у GPT-3, але, здається, він все ще далекий від того, щоб відповідати основним критеріям.
Створення загального штучного інтелекту (AGI) дослідники вважають святим Граалем штучного інтелекту, ця теоретична можливість вже давно захоплює їх уяву. Тому поява такого проекту, як OpenAI Project Q* викликала великий резонанс у світі досліджень алгоритмів штучного інтелекту. Хоча всі розуміють, що це тільки перші кроки, майже наосліп, у світ, де штучний інтелект матиме однакові можливості з людиною, або навіть вищі.
Також цікаво: Все про Microsoft Copilot: майбутнє чи хибний шлях?
Що таке Project Q*?
Project Q* не є типовим алгоритмом, бо це модель штучного інтелекту, яка все більше наближається до моделі загального штучного інтелекту (AGI). Це означає, що, на відміну від ChatGPT, Project Q* демонструє краще мислення та когнітивні навички порівняно з іншими алгоритмами. Наразі ChatGPT відповідає на запити на основі величезного фактичного матеріалу, але за допомогою AGI модель штучного інтелекту навчиться аргументації та здатності мислити й розуміти самостійно. Вже зараз відомо, що Project Q* здатний вирішувати прості математичні задачі, які не були частиною його навчального матеріалу. В цьому деякі дослідники вбачають значний крок до створення загального штучного інтелекту (AGI). OpenAI визначає AGI як системи штучного інтелекту, розумніші за людину.
Розробкою Project Q* керує головний науковий співробітник OpenAI Ілля Суцкевер, а її основу обґрунтували дослідники Якуб Пахоцкі та Шимон Сідор.
Здатність алгоритму розв’язувати математичні задачі самостійно, навіть якщо ці задачі не були частиною навчального набору даних, розглядається як прорив у сфері штучного інтелекту. Розбіжності в команді щодо цього проекту пов’язують з тимчасовим усуненням генерального директора OpenAI Сема Альтмана. Відомо, що перед звільненням Альтмана група дослідників компанії надіслала листа до ради директорів з попередженням про відкриття ШІ, яке може становити загрозу для людства. Цей лист, у якому, як повідомляється, обговорювався алгоритм Project Q*, був названий одним із факторів, що призвели до звільнення Альтмана. Однак можливості Project Q* і потенційні ризики, які він може становити, не повністю зрозумілі, оскільки деталі невідомі. Нічого не було оприлюднено для широкого загалу.
По суті, Project Q* — це безмодельний метод навчання з підкріпленням, який відходить від традиційних моделей, не вимагаючи попереднього знання середовища. Замість цього він навчається на досвіді, адаптуючи дії на основі винагород і покарань. Технічні експерти вважають, що Project Q* зможе отримати видатні можливості, набувши здібності, подібні до когнітивних здібностей людини.
Однак, саме ця функція, яка є найбільш вражаючою в новій моделі штучного інтелекту, викликає занепокоєння дослідників і критиків і викликає у них побоювання щодо реальних застосувань технології та основних ризиків, пов’язаних з цим. Чого ж так бояться вчені та дослідники? Давайте розбиратись.
Також цікаво: Як оновити домашні пристрої для підтримки Wi-Fi 6
Бояться невідомого
Людині завжди було властиво боятись невідомого, непізнанного. Це людська суть, риса нашого характеру і способу життя.
Про Project Q* світ технологій дізнався у листопаді 2023 року після того, як Reuters повідомило про внутрішній лист, написаний стурбованими дослідниками OpenAI. Зміст листа був нечітким, але, як повідомляється, у ньому серйозно аналізувалися можливості Project Q*. Як я вже згадував вище, існує навіть припущення, що саме цей лист спровокував відставку Сема Альтмана.
Це вибухове відкриття викликало різноманітні гіпотези щодо природи Project Q*. Вчені припустили, що це може бути революційна модель природної мови для ШІ. Своєрідний винахідник нових алгоритмів, який створюватиме їх для інших форм ШІ, або ще щось зовсім інше в цій сфері.
Провокаційні коментарі Альтмана відносно загального штучного інтелекту як “середнього співробітника” вже викликали занепокоєння щодо безпеки роботи та нестримного розширення впливу ШІ. Цей загадковий алгоритм визначається як віха у розвитку загального штучного інтелекту (AGI). Однак всі розуміють, що ця віха коштує дорого. І це зараз не про кошти. Рівень когнітивних навичок, який обіцяє нова модель ШІ, несе з собою невизначеність. Науковці OpenAI обіцяють, що ЗШІ буде мати мислення на рівні людини. А ось це означає, що ми багато чого не можемо знати та передбачити наслідки. І що більше невідомого, то важче підготуватися до того, щоб це контролювати або виправляти. Тобто новий алгоритм здатен самоудосконалюватись і розвиватись. Десь це ми вже бачили…
Також цікаво: Windows 12: Якою буде нова ОС
Приголомшливі подробиці про здібності Project Q*
Коли почало надходити більше інформації, це шокувало багатьох дослідників. Перші ознаки вказували на те, що Project Q* володіє приголомшливим хистом до математики. На відміну від калькулятора, який виконує механічні обчислення, Project Q* нібито може використовувати логіку та аргументацію для вирішення складних математичних завдань. Ця математична здатність до узагальнення натякає на розвиток широкого інтелекту.
Автономне навчання Project Q*, без конкретних наборів даних, які використовуються для навчання типових ШІ, також стане величезним кроком вперед. Залишається невідомим, чи оволодів Project Q* якимись іншими навичками. Але його математичні здібності самі по собі настільки приголомшливі, щоб збентежити навіть досвідчених дослідників.
Читайте також: Human Brain Project: Спроба імітувати людський мозок
Шлях Project Q* до панування?
У цьому питанні є як оптимістичний, так і песимістичний сценарії. Оптимісти скажуть, що Project Q* може стати іскрою, яка приведе до технологічного прориву. Оскільки система рекурсивно самовдосконалюється, її надприродний розум може допомогти вирішити дуже важливі проблеми людства – від зміни клімату до боротьби з хворобами. Project Q* може автоматизувати нудну роботу та звільнити для нас вільний час для іншої діяльності.
Хоча песимістичних варіантів набагато більше. Подеколи, вони доволі обґрунтовані і мають певний сенс.
Втрата робочих місць
Швидкі зрушення у розвитку технологій можуть випередити індивідуальну адаптацію людей. Це призведе до втрати одного чи кількох поколінь, які не зможуть отримати необхідні навички чи знання для адаптації до нових реалій. Тобто це, у свою чергу, означає, що менше людей зможуть зберегти свою роботу. Її замість них виконуватимуть машини, автоматизовані системи, роботи. Однак відповідь не така однозначна, коли мова йде про кваліфікованих спеціалістів. До того ж, можуть з’явитись нові професії, пов’язані саме з розвитком алгоритмів штучного інтелекту. Але ризики все ж є, і нехтувати ними людство не має права.
Небезпека безконтрольної влади
Якщо такий потужний ШІ як Project Q*, опиниться в руках тих, хто має недобрі наміри, це створить ризик катастрофічних наслідків для людства. Навіть без потенційно зловмисного умислу рівень прийняття рішень Project Q* може призвести до шкідливих результатів, що підкреслює вирішальну важливість ретельної оцінки його застосування.
Якщо Project Q* буде погано оптимізовано для людських потреб, то він може завдати шкоди своєю здатністю максимізувати деякі довільні показники. Або це може мати політичний аспект, наприклад, використовуватись для державного стеження або утисків. Відкриті дебати навколо аналізу впливу Project Q* допоможуть визначити можливі сценарії розвитку ЗШІ.
На нас чекає протистояння “Людина проти машини”?
Голлівуд вже створив багато сценаріїв такого протистояння у свої фільмах. Всі ми пам’ятаємо знаменитий SkyNet і наслідки такого відкриття. Може дослідникам з OpenAI варто ще раз переглянути цей фільм?
Людству потрібно приймати сигнали та виклики і бути готовими до того, що може статися. Модель штучного інтелекту, здатна мислити як людина, може коли-небуть стати нашим ворогом. Багато хто може заперечити, що у майбутньому вчені точно знатимуть, як тримати ситуацію під контролем. Але коли мова заходить про машини, ви не можете повністю виключити ймовірність того, що вони спробують взяти верх над людиною.
Теж цікаво: Не все, що ми називаємо ШІ, насправді є штучним інтелектом. Ось що потрібно знати
Чому мовчить OpenAI?
Незважаючи на шалену громадську цікавість щодо Project Q*, керівництво OpenAI просто тримає мовчання щодо особливостей алгоритму. Але витік внутрішньої інформації показує зростання напруженості в лабораторії навколо пріоритетів і відкритості розробок. У той час, як багато інсайдерів OpenAI підтримують створення Project Q*, критики стверджують, що прозорість відійшла на другий план, щоб прискорити науковий прогрес будь-якою ціною. А деякі дослідники стурбовані тим, що неймовірну владу надають системам, цілі яких не обов’язково збігаються з людськими цінностями та етикою. Ці дослідники вважають, що дискусії навколо нагляду та відповідальності стали небезпечно приглушеними. Вони вимагають більшого розголосу та подробиць.
Як творці Project Q*, в OpenAI повинні зрозуміти, що володіють технологією, яка може або значно розширити можливості розвитку суспільства, або безжально зруйнувати його. Такі значущі інновації заслуговують на набагато більшу прозорість, щоб зміцнити громадську довіру. Будь-які провісники епохи машин повинні ретельно розглядати ризики разом із перевагами. І розробникам Project Q* потрібно проявити достатньо мудрості й уважності, щоб безпечно ввести суспільство в нову еру загального штучного інтелекту, яка може настати раніше, ніж ми будь-коли уявляли.
Для того, щоб загальний штучний інтелект був корисним та безпечним для людства, необхідно переконатися, що він працює безпечно, етично та відповідно до цінностей та цілей людства. Це вимагає розробки та впровадження відповідних нормативних актів, стандартів, правил та протоколів, які контролюватимуть та стримуватимуть дії та поведінку ЗШІ. Крім того, необхідно усунути потенційні загрози та ризики, пов’язані зі зловживаннями, нещасними випадками, несумісністю, маніпуляціями та конфліктами, що можуть призвести до знищення людства. Тим часом, інвестори та Microsoft з великим нетерпінням чекають на ринковий продукт, який би міг приносити прибуток, що безсумнівно, вступає в протиріччя з необхідністю діяти відповідально. Будемо сподіватися, що здоровий глузд переможе.
Читайте також: