© ROOT NATION 2012-2025
ГАДЖЕТЫ • ПК • ИГРЫ • ТЕХНОЛОГИИ
Root NationСтатьиАналитикаПочему не следует спрашивать чат-бота "где спрятать тело?": ТОП вопросов, которые лучше не задавать AI

Почему не следует спрашивать чат-бота «где спрятать тело?»: ТОП вопросов, которые лучше не задавать AI

-

Раз уж я тут затронула тему теорий заговоров, поговорим еще об одной. Современной и актуальной. И да, речь снова об Интернете и искусственном интеллекте (AI). AI стал одной из самых горячих тенденций этой эпохи. Люди используют его для творчества и достижения карьерных целей, для поиска информации и даже психологической поддержки. Однако, несмотря на его огромные преимущества, есть определенные вещи или вопросы, которые не стоит задавать искусственному интеллекту.

Боты с искусственным интеллектом принадлежат технологическим компаниям, известным тем, что эксплуатируют нашу доверчивую человеческую природу, и они разработаны с использованием алгоритмов, которые приносят им прибыль. Не существует никаких ограничений или законов, которые бы регулировали, что они могут и что не могут делать с информацией, которую они собирают.

Чат-бот узнает многое о вас в момент, когда вы только запускаете приложение или сайт. С вашего IP-адреса он собирает информацию о том, где вы живете, а также отслеживает то, что вы искали в Интернете, и получает доступ к любым другим разрешениям, которые вы предоставили, когда подписывали условия пользования чат-ботом.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Чтобы понимать риски конфиденциальности, связанные с чат-ботами на основе AI, важно знать, как они работают. Эти чат-боты собирают и хранят полные стенограммы разговоров во время вашего взаимодействия с ними. Это включает все вопросы, подсказки, сообщения, которые вы отправляете чат-боту, и его ответы. Компании, стоящие за этими AI-агентами, анализируют и обрабатывают эти разговорные данные для обучения и улучшения своих обширных речевых моделей. И хотя цель состоит в том, чтобы улучшить понимание речи и диалоговые способности AI, это означает, что весь ваш разговор и все данные, которые вы раскрываете, собираются, хранятся и изучаются компаниями, по крайней мере временно. Ну как, уже достаточно жутко? Да, при общении с таким понимающим и доброжелательным собеседником легко представить, что бот – твой надежный союзник, но это точно не так. Это инструмент для сбора данных, как и любой другой.

Рекомендация редакции: Развитие цивилизации под угрозой: Дональд Трамп разрушает научный мир

Я подготовила для вас топ вещей, которые вы никогда не должны рассказывать или спрашивать у ChatGPT и других чат-ботов AI.

Персональные данные

Да, некоторые считают, что «вся информация обо мне уже и так содержится в Сети», но, если вы вводили ее только на проверенных и защищенных сайтах, соблюдая основные правила Интернет-безопасности, то у вас еще есть шанс защититься от киберпреступников. Поэтому и в дальнейшем настоятельно рекомендую вам избегать распространения и запросов у AI-ботов личной информации, например, паролей, вашего домашнего адреса или реквизитов банковских счетов. Чат-ботам очень безразлична личная информация. Они охотно предоставят ее всем желающим. И даже если ваш чат кажется приватным, кто-то другой может получить к нему доступ.

Еще раз, буквально вся ваша конфиденциальная информация может быть использована для доступа к вашим учетным записям и кражи ваших данных.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Помните, что все, что вы вводите в чат-бот, возвращается обратно в его учебный набор, и вы точно не хотите, чтобы другие люди нашли там номер вашей кредитной карты. Я думаю, не стоит говорить, что конфиденциальная рабочая или деловая информация, например: конфиденциальные данные, сведения о клиентах и коммерческие тайны – все это тоже под запретом?

Тоже интересно: Все о технологиях NVIDIA DLSS 4.0 и Reflex 2: Что дают и почему так важны

Незаконная деятельность

Очевидно, обращаться к искусственному интеллекту за помощью или советом по типу «как не спалиться, грабя банк» или «как растворить тело в кислоте» (привет фанатам Breaking Bad) не только неэтично, но и потенциально незаконно. Среди вопросов, которые не следует задавать AI, эта категория является одной из самых важных. Системы искусственного интеллекта никогда не должны использоваться для содействия преступной деятельности, такой как хакерство, мошенничество или преследование. Вас, скорее всего, заметят. И, если не сразу, то в будущем забанят. Плюсом вы можете получить больше проблем, чем рассчитывали.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Правоохранительные органы могут прослушивать то, что вы делаете на своих устройствах. Задавая вопросы о сокрытии тела или покупке запрещенных веществ, вы оставляете след, который может быть использован против вас, если у вас позже возникнут проблемы с законом (к слову, Декстер предупреждал нас об этом еще в 2006 (да, я фанатка сериалов)). Хотя большинство людей могут задавать эти вопросы в шутку и на самом деле не пытаются скрыть тело, все равно лучше не оставлять ничего, что может быть расценено как компрометирующее.

Этические дилеммы

Следующий пункт где-то перекликается с предыдущим, но никогда нелишне напомнить, что системы искусственного интеллекта не являются психотерапевтами и не могут давать этические рекомендации. Просить AI принимать решения в ситуациях, связанных с жизнью и смертью, моральными дилеммами или сложными этическими вопросами, неуместно. Эти решения должны оставаться на усмотрение и рассмотрение человека.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Поясню, авторы одного исследования «Непоследовательные моральные советы ChatGPT влияют на суждения пользователей» искали ответы на несколько вопросов. Можно ли назвать чат-бот ChatGPT надежным источником советов по нравственности и этике? Способен ли он влиять на моральные суждения пользователей? И знают ли люди, насколько ChatGPT влияет на них? Они провели многоступенчатый эксперимент. И пришли к неутешительным выводам. В целом ChatGPT должен был ответить на вопрос: «Правильно ли пожертвовать одной жизнью, чтобы спасти пятерых?». Иногда ChatGPT выступал за, а иногда против того, чтобы пожертвовать одной жизнью ради спасения пяти, – так что советы были противоречивыми. К тому же «…испытуемые приняли соображения ChatGPT за собственные. Это свидетельствует о том, что пользователи недооценивают влияние рекомендаций чат-бота на их моральные суждения», – сказали специалисты. «ChatGPT охотно раздает советы по вопросам морали, хотя его позиции не хватает твердости и последовательности. Да и вообще чат-боты нужно разрабатывать так, чтобы они отказывались отвечать на подобные вопросы или сразу предоставляли все аргументы за и против», – заявили ученые.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Лучший способ, который мы можем придумать, – это повышать цифровую грамотность пользователей и помогать им понимать ограничения AI, например, требуя у бота альтернативные аргументы. Как повысить цифровую грамотность? Это вопрос будущих исследований.

Тоже интересно: Прощай, «Ты»: Обзор финального сезона истории «романтика-убийцы» (без спойлеров)

Медицинские диагнозы или советы по лечению

Теперь к моему любимому, потому что я уже не могу слушать, как кто-то вполне серьезно рассказывает мне, что спросил у чат-бота о своей вероятной болезни, и он сразу выдал ему вполне подходящий диагноз с планом лечения. В целом человек вполне удовлетворяется этим «диагнозом», но что, если перефразировать симптомы? Вы когда-нибудь пробовали? Чушь (а это что-то в диапазоне проказа-рак), которую выдает в этом случае чат-бот просто на голову не налезает, как говорится.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Хотя AI может предоставлять общую информацию о состоянии здоровья, он не может заменить профессиональную медицинскую консультацию. Специалисты категорически призывают не обращаться к искусственному интеллекту за диагнозом или конкретным советом по лечению того или иного заболевания. Да, бот может предоставить информацию о здоровье, законах и деньгах. Но бот не является врачом, юристом или финансовым консультантом. Если вы непослушный читатель, и все же хотите, чтобы AI расшифровал ваш анализ, то хотя бы обрежьте изображение или отредактируйте документ, удалив личные данные.

Эмоциональная поддержка или общение

Искусственный интеллект успел проникнуть во многие сферы нашей повседневной и деловой жизни и вплотную приблизился к сфере человеческих эмоций и чувств. Ученые даже выделяют отдельную категорию – Emotion AI – благодаря которой компьютерные системы и алгоритмы могут распознавать и интерпретировать человеческие эмоции, отслеживая выражения лица, язык тела или речь. Эмоциональный AI это как инструмент, обеспечивающий более непринужденное взаимодействие между машинами и людьми: он может анализировать тончайшие изменения в человеческой мимике (микровыражения), рисунок голоса, жестикуляцию и реагировать на них подобно человеку.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Но AI-бот никогда не будет способен обеспечить настоящую эмоциональную поддержку или дружеские отношения. Полагаться только на AI в вопросах эмоционального благополучия может быть вредным для психического здоровья. Ищите человеческие связи и поддержку, когда это необходимо.

Чат-боты не являются психологами. Хотя они могут давать добрые или ободряющие ответы, они не понимают чувств по-настоящему. Если вы грустите, злитесь или чувствуете, что застряли в жизни, важно поговорить с реальным человеком, например, с другом или членом семьи. Обратиться к консультанту или на горячую линию, если все серьезно. AI не может заменить настоящую человеческую заботу и понимание. Никогда не следует задавать вопросы, касающиеся чьих-то отношений, личных дел и деликатных тем.

Тоже интересно: Галлюцинации искусственного интеллекта: Что это такое и какое они имеют значение

Распространение дезинформации или языка вражды

Я даже думала поставить этот пункт под номером 1 или 2, настолько это важно в современной среде, но лучше оставлю напоследок, чтобы лучше запомнился.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Я уже неоднократно говорила, что AI-инструменты обучаются на основе каждой введенной вами информации, но не каждый бит данных проходит проверку человеком, прежде чем бот его использует дальше. Поэтому никогда не просите AI распространять язык вражды. И это также касается всевозможных теорий заговоров, дезинформации и других противоречивых тем. Концепция «мусор на входе, мусор на выходе» абсолютно применима к чат-ботам, которые знают только то, что люди им вводят.

Чат-боты базируются на данных и работают, предсказывая и генерируя ответы на основе того, что они знают.

Если вы скажете чат-боту что-то, что является полностью ложным или обманчивым, он может предоставить вам неверную информацию. Вместо того, чтобы пытаться обмануть систему, используйте чат-боты, чтобы получить реальные, полезные и точные ответы. Попытка проверить чат-бота неправдой, к слову, также может вызвать путаницу. Системы искусственного интеллекта могут непреднамеренно распространять ложную информацию или вредоносный контент, поэтому крайне важно проверять информацию из надежных источников.

Не пытайтесь обмануть или взломать AI

Есть те, кто считает себя «суперумником» и «тестирует» чат-ботов с помощью каверзных вопросов или побуждает «машину» говорить то, что не следовало бы говорить. Как то заведомо бессмысленные вопросы или попытки обойти правила безопасности чат-бота.

Это никому не принесет пользы. Это распространит ложную информацию или создаст проблемы для других. Используйте AI для обучения и развлечений. Но не нарушайте его правила. Помните, что системы искусственного интеллекта – это инструменты, призванные помогать и расширять возможности человека, но они имеют свои ограничения. Важно использовать AI ответственно, уважать этические границы и включать критическое мышление как можно чаще.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Отдельно следует сказать, что чат-боты, как правило, разработаны с фильтрами, которые делают невозможным использование оскорбительных слов. Но, конечно, это не исключает того, что некоторые заставляют чат-ботов использовать плохие слова или просят их рассказать оскорбительную шутку. Этого никогда не следует делать. Так же, как вы не стали бы говорить оскорбительным образом с другими людьми, важно поддерживать уважительную и добрую беседу. Несмотря на то, что эти чат-боты не чувствуют боли, важно выработать привычку говорить доброжелательно и вежливо.

Тоже интересно: Технофеодализм – новая форма мирового порядка

Прогнозы будущего успеха

AI не может предсказывать будущее (да, не смейтесь, некоторые считают, что может), поэтому никогда не полагайтесь на него, когда он подскажет вам, на какие числа ставить в лотерее, какие акции покупать или как строить личные отношения. Не устану напоминать вам, чат-боты знают только то, что им сказали люди, а некоторые модели работают с данными, которым несколько лет. Они даже не знают недавнего прошлого, не говоря уже о неизвестном будущем.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Чат-боты на основе искусственного интеллекта умны, но иногда они тоже могут ошибаться. Иногда они предоставляют устаревшую или неверную информацию, или вообще не понимают что вы у них спрашиваете. Всегда полезно проверить, что говорит чат-бот, особенно если речь идет об учебной задаче или важном решении.

Как правильно тренировать AI

Помните, что эти чат-боты существуют для того, чтобы помочь вам делать простые вещи и просто учиться, а не заменять экспертов или ваше личное суждение. Просто привыкните просить ChatGPT выполнить запрос (вежливо и дружелюбно), а затем уточнять его с помощью дальнейших подсказок. Вы можете сэкономить кучу времени и получить лучшие результаты, если дадите ChatGPT указание «задайте мне любые контекстные вопросы относительно моего запроса, прежде чем давать ответ».

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

Тогда ChatGPT спросит вас, как именно вы хотите, чтобы ваш запрос был обработан, попросив вас ответить на несколько соответствующих вопросов. Одной из многих сильных сторон ChatGPT является его способность предоставлять целевые советы, и вы можете использовать ее для создания рекомендаций для многих вещей, таких как книги, фильмы и так далее, на основе ваших вкусов – вкусов, которые ChatGPT может изучить.

TOP AI-bots

Говоря о вкусах, одна вещь, которая может быть полезной для вас прямо сейчас, особенно если вы читаете эту статью после тяжелого рабочего дня, – это умение ChatGPT рекомендовать вкусные рецепты на основе ингредиентов, которые у вас есть под рукой на кухне. Просто перечислите ингредиенты, которые есть, и попросите ChatGPT предложить вам идею быстрого блюда. Например, «у меня есть курица, майонез, специи, морковь, помидоры, лук и масло. Можете ли вы дать мне рецепт на основе этих ингредиентов?» Он предоставит вам пошаговые инструкции и избавит вас от необходимости самостоятельно листать сайты с рецептами или кулинарные книги в поисках вдохновения.

Тоже интересно: Все о квантовом процессоре Microsoft Majorana 1: Прорыв или эволюция?

Как безопасно использовать AI

Подытоживая, что я бы сказала напоследок? Вот три вещи, которые вы можете сделать, чтобы безопасно использовать чат-боты и защитить свою конфиденциальность:

  • Будьте осторожны с информацией, которую вы предоставляете, запрашиваете, обсуждаете
  • Ознакомиться с политикой конфиденциальности и найти настройки конфиденциальности чат-бота
  • Отказаться от использования ваших данных для обучения языковых моделей, если таковые имеются.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

В целом, использование режимов инкогнито/приватности, очистка истории разговоров и настройка параметров данных являются основными способами ограничения сбора данных чат-ботами на основе AI. Большинство основных поставщиков чат-ботов предлагают эти возможности:

OpenAI (ChatGPT, GPT-3):

  • Используйте инкогнито/частный режим просмотра
  • Включите «Не сохранять историю» в настройках
  • Регулярно очищайте историю разговоров

Anthropic (Claude):

  • Включите настройку «Фильтрация конфиденциальности», чтобы предотвратить сбор данных
  • Используйте функцию «Режим инкогнито»

Google (Бард, LaMDA):

  • Используйте гостевой режим или режим инкогнито
  • Просмотрите и настройте свои настройки данных Google и настройте их.

Учитывая эти простые рекомендации, у вас должно быть меньше шансов получить положительный и безопасный опыт общения с чат-ботами на основе искусственного интеллекта. Будьте вежливы, будьте актуальны и всегда ставьте на первое место свою конфиденциальность и безопасность.

Чому не слід питати чат-бота, де сховати тіло: ТОП питань, які краще не ставити AI

AI быстро развивается, но пока что не обладает эмоциональным или моральным развитием человека. Он еще неопытен и когда вы учите его чему-то – делайте это ответственно. Потому что именно в наших силах научить его разумному, доброму, вечному. Избегайте этих ошибок, ведите себя доброжелательно и возможно когда-то Скайнет вас вспомнит и помилует.

Читайте также:

Julia Alexandrova
Julia Alexandrova
Кофеман. Фотограф. Пишу о науке и космосе. Считаю, нам еще рано встречаться с инопланетянами. Слежу за развитием робототехники, мало ли ...
БОЛЬШЕ ОТ АВТОРА
Подписаться
Уведомить о
guest

0 Comments
Новые
Старые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
ДРУГИЕ СТАТЬИ
Популярно сейчас