РЕКЛАМА Letyshops

В Калифорнии с 5 по 8 января состоялся съезд профессоров, разработчиков и инженеров, специализирующихся на создании и развитии технологий Искусственного Интеллекта (ИИ). В ходе четырехдневных активных обсуждений был составлен список принципов ИИ, которые используются уже сейчас и должны применяться в будущем. Фактически был подведен некий итог достижений человечества в области машинного обучения за последние десятилетия.

Илон Маск во время одной из дискуссий
Илон Маск во время одной из дискуссий

Вообще “Искусственный Интеллект” не связан напрямую с человеческим мозгом и интеллектом как таковым. Вот, как трактует это понятие американский информатик Джон Маккарти, автор сего термина: “Проблема состоит в том, что пока мы не можем в целом определить, какие вычислительные процедуры мы хотим называть интеллектуальными. Мы понимаем лишь некоторые механизмы интеллекта. Поэтому под интеллектом в пределах этой науки понимается только вычислительная составляющая способности достигать целей в мире”. Это прозвучало в 1956 году на конференции в Дартмутском университете.

Конференция в Дартмуте 1956
Весь состав участников конференция в Дартмуте 1956 года

Время подтвердило слова Маккарти. Сегодня для достижения целей мы используем информационные средства, а наши идеи об упрощении мира или мысли о будущем все теснее связаны с программным кодом. Да, мы изменили представление о тех же роботах, но совершенно не исключили их повсеместность.

Итак, все 23 составленных “законов будущего” были подразделены на три группы: научно-исследовательские вопросы, этика и ценности, перспективы технологии.

Искусственный Интеллект, робот

Конституция Искусственного Интеллекта

Научно-исследовательский сегмент

  1. Цель исследования Искусственного Интеллекта — создание не только узконаправленного устройства, а выгода для всего общества.

2. Инвестиции в ИИ должны поступать в область исследований по обеспечению полезности использования технологии, позволяя давать более точные и обобщенные ответы на возникающие вопросы информатики, экономики, права, этики, обществоведения:

  • Как обеспечить высокую надежность ИИ, успешно противостоя хакерским взломам и легко предотвращая возникающие неисправности?
  • Каким образом при помощи автоматики мы можем придти к необходимой цели, затратив наименьшее количество ресурсов?
  • Как грамотно обновить правовую систему, обеспечив справедливость по современным каноном и учтя появление ИИ?
  • Какой правовой и этнический статус получит ИИ?

3. Обеспечение конструктивного и равного взаимодействия исследователей и политиков.

4. Полная открытость и транспарентность достижений культуры для дальнейшего использования ИИ.

5. Взаимодействие и сотрудничество между исследователями ИИ в целях избежания резкой конкуренции.

Нравственные ценности

Нравственные ценности

6. Системы искусственного интеллекта должны быть безопасными и надежными на протяжении всего эксплуатационного срока.

7. Максимальное быстрое выяснение причин неполадок и дальнейшее их устранение.

8. Любое вмешательство автономной системы в судебные решения должно быть санкционированным и подлежать отчетности в случае проверки компетентным членом комиссии (человеком).

9. Ответственность за причиненный вред, намеренное создание опасной ситуации, вызванное ошибкой конструкции или программного обеспечения ляжет на плечи разработчиков и инженеров.

10. Все автономные системы ИИ должны стремиться к познанию общечеловеческих ценностей.

11. ИИ должен быть спроектирован и эксплуатироваться так, чтобы иметь совместимость с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

12. Информация, возникшая в процессе использования ИИ человеком, должна быть доступна в дальнейшем для этого же человека (возможность распоряжаться результатами и собранными данными).

13. ИИ при работе с персональными данными не должен необоснованно ограничивать реальные или мнимые свободы людей.

14. Технологии ИИ должны приносить пользу и быть доступными как можно большему количеству людей.

15. Экономические и общественные достижения ИИ являются мировыми и должны быть направлены во благо человечества.

16. Человек всегда имеет выбор: принять решение самостоятельно или поручить это ИИ.

17. Цель ИИ – улучшить и обогатить общество, не принеся за собой разрушения и катастрофы.

18. Вероятность использования технологии ИИ в гонке вооружений должна быть сведена к нуля, собственно, также должно и прекратиться вооруженное соперничество.

Искусственный Интеллект

Долгосрочные вопросы

19. Мы должны абсолютно трезво оценивать предел возможностей ИИ, для избежания нерациональных затрат ресурсов.

20. Развитие ИИ будет интенсивным, поэтому технология должна быть под контролем, дабы не вызвать необратимых реакций.

21. Риски, особенно крупномасштабные, должны быть спланированы таким образом, чтобы обеспечивать минимизацию возможного ущерба.

22. Системы ИИ способны к саморазвитию и самовоспроизведению, что может вызвать ухудшение качества деятельности ИИ, поэтому должен проводиться регулярный контроль основных показателей.

23. Суперинтеллект — технология, которая служит и будет служить во благо всего человечества, не подчиняясь ни одной конкретной частной организации или государству.

Робот и человек

Читать также: Hyperloop: как насчёт гонок вакуумных поездов?

Давайте пробежимся по основным тезисам доклада. Специалисты обеспокоены собственной отсталостью в момент интенсивного развития ИИ, поэтому стремятся обеспечить абсолютный контроль за технологией. Также неоднократно подчеркивается мировая общественная ценность ИИ и его приобщение к человеческой культуре. Однако удастся ли реализовать этот план, мы узнаем довольно скоро. Искусственный Интеллект, как щенок, сейчас он бегает, резвиться, но каким в итоге станет пес, в первую очередь зависит от хозяев.

На данный момент этот “законопроект” находится на стадии утверждения гражданами государства Земля, поэтому, если вы хотите безопасное, счастливое и технологичное будущее, то смело “голосуйте” за принятие этих абсолютно разумных и необходимых принципов.

Тест Тьюринга

Тест Тьюринга

Великий математик Алан Тьюринг также был причастен в технологии ИИ, поэтому придумал очень любопытный тест. Тест Тьюринга впервые был изложен в статье “Вычислительные машины и разум” в философском издании Mind в 1950 году. Идея теста — определение возможностей машинного мышления и вообще его существования как такого.

Тест Тьюринга

Стандартная интерпретация звучит следующим образом: “Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор”. Все участники не видят друг друга, а общение происходит в тестовом формате, так как цель теста проверить не технические возможности устройства по распознаванию речи, а именно способность имитировать мышление человека.

Переписка также производится через контролируемые промежутки времени, чтобы “судья” не мог сделать заключение исходя из скорости ответов. Интересно, что это правило было придумано из-за того, что во времена создания этого теста компьютеры реагировали медленнее человека, сейчас оно также необходимо, потому что теперь человек в роли отстающего.

Тест Тьюринга Тест Тьюринга

Также на основе этого теста был создан похожий тест по определению пола собеседников. В роли судьи игрок C должен общаться с игроками A и B, собственно мужчиной и женщиной.

В одной исследовательской работе об ИИ был дан следующий комментарий: “Теперь мы спросим: «Что произойдёт, если машина выступит в качестве игрока А в этой игре?» Будет ли ведущий принимать неправильные решения, когда игра ведётся таким образом, как если бы в тесте принимали участие мужчина и женщина? Эти вопросы заменят наш первоначальный: «Могут ли машины думать?»”.

То есть вместо одного абсолютно далекого по сей день вопроса, мы будем отвечать на более легкие и делать это последовательно, тем самым все ближе и ближе приближаясь к долгожданному ответу на главный вопрос о мыслительных способностях Искусственного Интеллекта.

Источник: Futureoflife, Wikipedia и еще немного Wikipedia