Таинственный Project Q* от OpenAI вызывает беспокойство среди экспертов. Неужели он может быть опасным для человечества? Что о нем известно? После того, как на прошлой неделе Сэма Альтмана сначала уволили и он с командой почти перешел в Microsoft, потом таки вернулся обратно на свое рабочее место (об этом мы писали вот здесь), OpenAI снова в новостях. На этот раз из-за того, что некоторые исследователи называют возможной угрозой для человечества. Да, вы все правильно прочитали, именно угрозой для человечества.
Настоящее потрясение в мире технологий вызвал Project Q* – неразглашенный проект общего искусственного интеллекта (AGI) – произносится Q-Star. Несмотря на то, что этот проект находится на начальной стадии, он считается действительно новаторским в разработках AGI. Однако некоторые видят в нем опасность для человечества.
Тайный проект искусственного интеллекта, разработанный известной лабораторией искусственного интеллекта OpenAI, обладает потенциалом революционизировать технологии и общество в целом. Но это также ставит определенные этические вопросы относительно рисков. По мере того, как появляются подробности о потрясающих возможностях Project Q*, появляется все больше предположений о том, что это может означать для будущего человечества.
Также интересно: История с OpenAI: Что это было и что ждет компанию
Чтобы понять ажиотаж вокруг Project Q* (Q-Star), давайте сначала попробуем разобраться, в чем заключается концепция общего искусственного интеллекта (AGI). В то время, как современные системы искусственного интеллекта отлично справляются с узкими специфическими задачами, такими как игра в шахматы или генерирование изображений, общий искусственный интеллект касается машин, которые могут обучаться и мыслить на уровне человека во многих сферах. То есть, они могут учиться, как маленькие дети в школе, например, основам математики, химии, биологии и т.д..
Общий искусственный интеллект (ОИИ) – это тип машинного интеллекта, который гипотетически может имитировать интеллект или поведение человека, со способностью обучаться и применять этот потенциал для решения различных проблем. AGI также называют сильным искусственным интеллектом, полным искусственным интеллектом или искусственным интеллектом человеческого уровня. Общий искусственный интеллект отличается от слабого или узкого ИИ, который способен выполнять только конкретные или специализированные задачи в пределах заданных параметров. ОИИ сможет самостоятельно решать разнообразные сложные задачи из разных сфер знаний.
Создание ОИИ является основным направлением исследований искусственного интеллекта таких компаний, как DeepMind и Anthropic. Именно ОИИ является очень популярной темой в научно-фантастической литературе и может определять будущие исследования. Некоторые утверждают, что можно создать ОИИ за несколько лет или десятилетий, другие же утверждают, что это может занять столетие или больше. Но есть и такие, которые считают, что этого никогда не удастся достичь. Некоторые видели зачатки ОИИ в GPT-3, но, кажется, он все еще далек от того, чтобы соответствовать основным критериям.
Создание общего искусственного интеллекта (AGI) исследователи считают святым Граалем искусственного интеллекта, эта потенциальная возможность уже давно захватывает их воображение. Поэтому появление такого проекта, как OpenAI Project Q* вызвало большой резонанс в мире исследований алгоритмов искусственного интеллекта. Хотя все понимают, что это только первые шаги, почти вслепую, в мир, где искусственный интеллект будет иметь равные возможности с человеком, или даже выше.
Также интересно: Все о Microsoft Copilot: будущее или ложный путь?
Project Q* не является типичным алгоритмом, потому что это модель искусственного интеллекта, которая все больше приближается к модели общего искусственного интеллекта (AGI). Это означает, что, в отличие от ChatGPT, Project Q* демонстрирует лучшее мышление и когнитивные навыки по сравнению с другими алгоритмами. Сейчас ChatGPT отвечает на запросы на основе огромного фактического материала, но с помощью AGI модель искусственного интеллекта научится аргументации и способности мыслить и понимать самостоятельно. Уже сейчас известно, что Project Q* способен решать простые математические задачи, которые не были частью его учебного материала. В этом некоторые исследователи видят значительный шаг к созданию общего искусственного интеллекта (AGI). OpenAI определяет AGI как системы искусственного интеллекта, которые умнее человека.
Разработкой Project Q* руководит главный научный сотрудник OpenAI Илья Суцкевер, а ее основу обосновали исследователи Якуб Пахоцки и Шимон Сидор.
Способность алгоритма решать математические задачи самостоятельно, даже если эти задачи не были частью учебного набора данных, рассматривается как прорыв в сфере искусственного интеллекта. Разногласия в команде по этому проекту связывают с временным отстранением генерального директора OpenAI Сэма Альтмана. Известно, что перед увольнением Альтмана группа исследователей компании направила письмо в совет директоров с предупреждением об открытии ИИ, которое может представлять угрозу для человечества. Это письмо, в котором, как сообщается, обсуждался алгоритм Project Q*, было названо одним из факторов, приведших к увольнению Альтмана. Однако возможности Project Q* и потенциальные риски, которые он может представлять, не полностью понятны, поскольку детали неизвестны. Ничего не было обнародовано для широкой общественности.
По сути, Project Q* – это безмодельный метод обучения с подкреплением, который отходит от традиционных моделей, не требуя предварительного знания среды. Вместо этого он обучается на опыте, адаптируя действия на основе вознаграждений и наказаний. Технические эксперты считают, что Project Q* сможет получить выдающиеся возможности, приобретя способности, подобные когнитивным способностям человека.
Однако, именно эта функция, которая является наиболее впечатляющей в новой модели искусственного интеллекта, вызывает беспокойство исследователей и критиков и вызывает у них опасения относительно реальных применений технологии и основных рисков, связанных с этим. Чего же так боятся ученые и исследователи? Давайте разбираться.
Также интересно: Беспилотные автомобили: долго ли еще ждать революции?
Человеку всегда было свойственно бояться неизвестного, непознанного. Это человеческая суть, черта нашего характера и образа жизни.
О Project Q* мир технологий узнал в ноябре 2023 года после того, как Reuters сообщило о внутреннем письме, написанном обеспокоенными разработчиками OpenAI. Содержание письма было нечетким, но, как сообщается, в нем серьезно анализировались возможности Project Q*. Как я уже упоминал выше, есть даже предположение, что именно это письмо спровоцировало отставку Сэма Альтмана.
Это взрывное открытие вызвало различные гипотезы о природе Project Q*. Ученые предположили, что это может быть революционная модель естественного языка для ИИ. Своеобразный изобретатель новых алгоритмов, который будет создавать их для других форм ИИ, или еще что-то совсем другое в этой сфере.
Провокационные комментарии Альтмана об общем искусственном интеллекте как о “среднем сотруднике” уже вызвали беспокойство относительно безопасности работы и безудержного расширения влияния ИИ. Этот загадочный алгоритм определяется как веха в развитии общего искусственного интеллекта (AGI). Однако все понимают, что эта веха стоит дорого. И это сейчас не о деньгах. Уровень когнитивных навыков, который обещает новая модель ИИ, несет с собой неопределенность. Ученые OpenAI обещают, что ИИ будет обладать мышлением на уровне человека. А вот это означает, что мы многого не можем знать и предвидеть последствия. И чем больше неизвестного, тем труднее подготовиться к тому, чтобы это контролировать или исправлять. То есть новый алгоритм способен самосовершенствоваться и развиваться. Где-то это мы уже видели…
Читайте также: Windows 12: Какой будет новая ОС
Когда начало поступать больше информации, это шокировало многих исследователей. Первые признаки указывали на то, что Project Q* обладает потрясающей способностью к математике. В отличие от калькулятора, который выполняет механические вычисления, Project Q* якобы может использовать логику и аргументацию для решения сложных математических задач. Эта математическая способность к обобщению намекает на развитие широкого интеллекта.
Автономное обучение Project Q*, без конкретных наборов данных, которые используются для обучения типичных ИИ, также станет огромным шагом вперед. Остается неизвестным, овладел ли Project Q* какими-то другими навыками. Но его математические способности сами по себе настолько потрясающие, чтобы обескуражить даже опытных исследователей.
Читайте также: Human Brain Project: Попытка имитировать человеческий мозг
В этом вопросе есть как оптимистический, так и пессимистический сценарии. Оптимисты скажут, что Project Q* может стать искрой, которая приведет к технологическому прорыву. Поскольку система рекурсивно самосовершенствуется, ее сверхъестественный разум может помочь решить очень важные проблемы человечества – от изменения климата до борьбы с болезнями. Project Q* может автоматизировать скучную работу и освободить для нас свободное время для другой деятельности.
Хотя пессимистических вариантов гораздо больше. Порой, они довольно обоснованы и имеют определенный смысл.
Быстрые сдвиги в развитии технологий могут опередить индивидуальную адаптацию людей. Это приведет к потере одного или нескольких поколений, которые не смогут получить необходимые навыки или знания для адаптации к новым реалиям. То есть это, в свою очередь, означает, что меньше людей смогут сохранить свою работу. Ее вместо них будут выполнять машины, автоматизированные системы, роботы. Однако ответ не так однозначен, когда речь идет о квалифицированных специалистах. К тому же, могут появиться новые профессии, связанные именно с развитием алгоритмов искусственного интеллекта. Но риски все же есть, и пренебрегать ими человечество не имеет права.
Если такой мощный ИИ как Project Q*, окажется в руках тех, кто имеет недобрые намерения, это создаст риск катастрофических последствий для человечества. Даже без потенциально злонамеренного умысла уровень принятия решений Project Q* может привести к пагубным результатам, что подчеркивает решающую важность тщательной оценки его применения.
Если Project Q* будет плохо оптимизирован для человеческих потребностей, то он может нанести вред своей способностью максимизировать некоторые произвольные показатели. Или это может иметь политический аспект, например, использоваться для государственной слежки или репрессий. Открытые дебаты вокруг анализа влияния Project Q* помогут определить возможные сценарии развития ОИИ.
Голливуд уже создал много сценариев такого противостояния в свои фильмах. Все мы помним знаменитый SkyNet и последствия такого открытия. Может исследователям из OpenAI стоит еще раз пересмотреть этот фильм?
Человечеству нужно принимать сигналы и вызовы и быть готовыми к тому, что может произойти. Модель искусственного интеллекта, способная мыслить как человек, может когда-нибудь стать нашим врагом. Многие могут возразить, что в будущем ученые точно будут знать, как держать ситуацию под контролем. Но когда речь заходит о машинах, вы не можете полностью исключить вероятность того, что они попытаются взять верх над человеком.
Тоже интересно: Война за спутниковый интернет: Европа бросает вызов Starlink
Несмотря на огромный общественный интерес к Project Q*, руководство OpenAI просто молчит об особенностях алгоритма. Но утечка внутренней информации показывает рост напряженности в лаборатории вокруг приоритетов и открытости разработок. В то время, как многие инсайдеры OpenAI поддерживают создание Project Q*, критики утверждают, что прозрачность отошла на второй план, чтобы ускорить научный прогресс любой ценой. А некоторые исследователи обеспокоены тем, что невероятную власть предоставляют системам, цели которых не обязательно совпадают с человеческими ценностями и этикой. Эти исследователи считают, что дискуссии вокруг надзора и ответственности стали опасно приглушенными. Они требуют большей огласки и подробностей.
Как создатели Project Q*, в OpenAI должны понять, что обладают технологией, которая может либо значительно расширить возможности развития общества, либо безжалостно разрушить его. Такие значимые инновации заслуживают гораздо большей прозрачности, чтобы укрепить общественное доверие. Любые предвестники эпохи машин должны тщательно рассматриваться на предмет рисков вместе с преимуществами. И разработчикам Project Q* нужно проявить достаточно мудрости и внимательности, чтобы безопасно ввести общество в новую эру всеобщего искусственного интеллекта, которая может наступить раньше, чем мы когда-либо представляли.
Для того, чтобы общий искусственный интеллект был полезным и безопасным для человечества, необходимо убедиться, что он работает безопасно, этично и в соответствии с ценностями и целями человечества. Это требует разработки и внедрения соответствующих нормативных актов, стандартов, правил и протоколов, которые будут контролировать и сдерживать действия и поведение ИИ. Кроме того, необходимо устранить потенциальные угрозы и риски, связанные со злоупотреблениями, несчастными случаями, несовместимостью, манипуляциями и конфликтами, которые могут привести к уничтожению человечества. Между тем, инвесторы и Microsoft с большим нетерпением ждут рыночного продукта, который бы мог приносить прибыль, что несомненно, вступает в противоречие с необходимостью действовать ответственно. Будем надеяться, что здравый смысл победит.
Читайте также:
Leave a Reply