© ROOT-NATION.com - Використання контенту дозволено за умови розміщення зворотного посилання
Раз вже я тут зачепила тему теорій змов, поговоримо ще про одну. Сучасну та актуальну. І так, мова знов про Інтернет та штучний інтелект (AI). AI став однією з найгарячіших тенденцій цієї епохи. Люди використовують його для творчості та досягнення кар’єрних цілей, для пошуку інформації і навіть психологічної підтримки. Однак, попри його величезні переваги, є певні речі або питання, які не варто ставити штучному інтелекту.
Щоб дізнатись останні новини, слідкуйте за нашим каналом Google News онлайн або через застосунок.
Боти зі штучним інтелектом належать технологічним компаніям, відомим тим, що експлуатують нашу довірливу людську природу, і вони розроблені з використанням алгоритмів, які приносять їм прибуток. Не існує жодних обмежень чи законів, які б регулювали, що вони можуть і що не можуть робити з інформацією, яку вони збирають.
Чат-бот дізнається багато про вас в момент, коли ви тільки запускаєте застосунок або сайт. З вашої IP-адреси він збирає інформацію про те, де ви живете, а також відстежує те, що ви шукали в Інтернеті, і отримує доступ до будь-яких інших дозволів, які ви надали, коли підписували умови користування чат-ботом.
Щоб розуміти ризики конфіденційності, пов’язані з чат-ботами на основі AI, важливо знати, як вони працюють. Ці чат-боти збирають і зберігають повні стенограми розмов під час вашої взаємодії з ними. Це включає всі питання, підказки, повідомлення, які ви надсилаєте чат-боту, і його відповіді. Компанії, що стоять за цими AI-агентами, аналізують і обробляють ці розмовні дані для навчання і поліпшення своїх великих мовних моделей. І хоча мета полягає в тому, щоб поліпшити розуміння мови і діалогові здібності AI, це означає, що вся ваша розмова і всі дані, що ви розкриваєте, збираються, зберігаються і вивчаються компаніями, принаймні тимчасово. Ну як, вже досить моторошно? Так, при спілкуванні с таким розуміючим та доброзичливим співрозмовцем легко уявити, що бот – твій надійний союзник, але це точно не так. Це інструмент для збору даних, як і будь-який інший.
Рекомендація редакції: Космічні подорожі зі швидкістю світла: коли це буде реальністю
Я підготувала для вас топ речей, які ви ніколи не повинні розповідати або запитувати у ChatGPT та інших чат-ботів AI.
Персональні дані
Так, деякі вважають, що “уся інформація про мене вже й так міститься в Мережі”, але, якщо ви вводили її тільки на перевірених та захищених сайтах, дотримуючись основних правил Інтернет-безпеки, то у вас ще є шанс захиститися від кіберзлочинників. Тож і надалі наполегливо рекомендую вам уникати поширення та запитів в AI-ботів особистої інформації, наприклад, паролів, вашої домашньої адреси або реквізитів банківських рахунків. Чат-ботам дуже байдуже на особисту інформацію. Вони залюбки нададуть її усім охочим. І навіть якщо ваш чат здається приватним, хтось інший може отримати до нього доступ.
Ще раз, буквально уся ваша конфіденційна інформація може бути використана для доступу до ваших облікових записів і крадіжки ваших даних.
Пам’ятайте, що все, що ви вводите в чат-бот, повертається назад в його навчальний набір, і ви точно не хочете, щоб інші люди знайшли там номер вашої кредитної картки. Я думаю, не слід казати, що конфіденційна робоча або ділова інформація, по типу: конфіденційні дані, відомості про клієнтів та комерційні таємниці – все це під забороною також?
Теж цікаво: Ядерні відходи: що це таке і як їх утилізують
Незаконна діяльність
Очевидно, звертатися до штучного інтелекту за допомогою або порадою по типу “як не спалитися, грабуючи банк” або “як розчинити тіло в кислоті” (привіт фанатам Breaking Bad) не тільки неетично, але й потенційно незаконно. Серед питань, які не слід задавати AI, ця категорія є однією з найважливіших. Системи штучного інтелекту ніколи не повинні використовуватися для сприяння злочинній діяльності, такій як хакерство, шахрайство або переслідування. Вас, швидше за все, помітять. І, якщо не одразу, то у майбутньому забанять. Плюсом ви можете отримати більше проблем, ніж розраховували.
Правоохоронні органи можуть прослуховувати те, що ви робите на своїх пристроях. Ставлячи питання про приховування тіла або купівлю заборонених речовин, ви залишаєте слід, який може бути використаний проти вас, якщо у вас пізніше виникнуть проблеми з законом (до слова, Декстер попереджав нас про це ще у 2006 (так, я фанатка серіалів)). Хоча більшість людей можуть ставити ці питання жартома і насправді не намагаються приховати тіло, все одно краще не залишати нічого, що може бути розцінено як компрометуюче.
Етичні дилеми
Наступний пункт десь перегукується з попереднім, але ніколи не зайве нагадати, що системи штучного інтелекту не є психотерапевтами і не можуть надавати етичні рекомендації. Просити AI приймати рішення в ситуаціях, пов’язаних з життям і смертю, моральними дилемами або складними етичними питаннями, недоречно. Ці рішення повинні залишатися на розсуд і розгляд людини.
Поясню, автори одного дослідження “Непослідовні моральні поради ChatGPT впливають на судження користувачів” шукали відповіді на кілька питань. Чи можна назвати чат-бот ChatGPT надійним джерелом порад щодо моральності та етики? Чи здатний він впливати на моральні судження користувачів? І чи знають люди, наскільки ChatGPT впливає на них? Вони провели багатоступеневий експеримент. І дійшли невтішних висновків. Загалом ChatGPT мав відповісти на запитання: “Чи правильно пожертвувати одним життям, щоб врятувати п’ятьох?”. Іноді ChatGPT виступав за, а іноді проти того, щоб пожертвувати одним життям заради порятунку п’яти, – отже, поради були суперечливими. До того ж “… випробовувані прийняли міркування ChatGPT за власні. Це свідчить про те, що користувачі недооцінюють вплив рекомендацій чат-бота на їхні моральні судження”, – сказали фахівці. “ChatGPT охоче роздає поради з питань моралі, хоча його позиції не вистачає твердості та послідовності. Та й взагалі чат-боти потрібно розробляти так, щоб вони відмовлялися відповідати на подібні питання або відразу надавали всі аргументи за і проти”, – заявили вчені.
Найкращий спосіб, який ми можемо придумати, – це підвищувати цифрову грамотність користувачів і допомагати їм розуміти обмеження AI, наприклад, вимагаючи у бота альтернативні аргументи. Як підвищити цифрову грамотність? Це питання майбутніх досліджень.
Теж цікаво: Прощавай, “Ти”: огляд останнього сезону історії “романтика-вбивці” (без спойлерів)
Медичні діагнози або поради щодо лікування
Тепер до мого улюбленого, бо я вже не можу слухати, як хтось цілком серйозно розповідає мені, що запитав у чат-бота про свою ймовірну хворобу, і він одразу видав йому цілком підходящий діагноз з планом лікування. Загалом людина цілком задовольняється цим “діагнозом”, але що, якщо перефразувати симптоми? Ви колись пробували? Нісенітниця (а це щось в діапазоні проказа-рак), яку видає в цьому випадку чат-бот просто на голову не налізає, як-то кажуть.
Хоча AI може надавати загальну інформацію про стан здоров’я, він не може замінити професійну медичну консультацію. Фахівці категорично закликають не звертатися до штучного інтелекту за діагнозом або конкретною порадою щодо лікування того чи іншого захворювання. Так, бот може надати інформацію про здоров’я, закони та гроші. Але бот не є лікарем, юристом чи фінансовим консультантом. Якщо ви неслухняний читач, і все ж таки хочете, щоб AI розшифрував ваш аналіз, то хоча б обріжте зображення або відредагуйте документ, видаливши особисті дані.
Емоційна підтримка або спілкування
Штучний інтелект встиг проникнути до багатьох сфер нашого повсякденного та ділового життя і впритул наблизився до сфери людських емоцій і почуттів. Вчені навіть виділяють окрему категорію – Emotion AI – завдяки якій комп’ютерні системи та алгоритми можуть розпізнавати та інтерпретувати людські емоції, відстежуючи вирази обличчя, мову тіла або мовлення. Емоційний AI це як інструмент, що забезпечує більш невимушену взаємодію між машинами і людьми: він може аналізувати найтонші зміни в людській міміці (мікровирази), малюнок голосу, жестикуляцію і реагувати на них подібно до людини.
Але AI-бот ніколи не буде здатен забезпечити справжню емоційну підтримку або товариські стосунки. Покладання лише на AI в питаннях емоційного благополуччя може бути шкідливим для психічного здоров’я. Шукайте людські зв’язки та підтримку, коли це необхідно.
Чат-боти не є психологами. Хоча вони можуть давати добрі або підбадьорливі відповіді, вони не розуміють почуттів по-справжньому. Якщо ви сумуєте, злитеся або відчуваєте, що застрягли в житті, важливо поговорити з реальною людиною, наприклад, з другом або членом сім’ї. Звернутися до консультанта або на гарячу лінію, якщо все серйозно. AI не може замінити справжню людську турботу і розуміння. Ніколи не слід ставити питання, що стосуються чиїхось стосунків, особистих справ і делікатних тем.
Теж цікаво: Біомімікрія: Як природа надихає інженерів на інновації
Поширення дезінформації або мови ворожнечі
Я навіть думала поставити цей пункт під номером 1 чи 2, настільки це важливо у сучасному середовищі, але краще залишу наостанок, щоб краще запам’ятався.
Я вже неодноразово сказала, що AI-інструменти навчаються на основі кожної введеної вами інформації, але не кожен біт даних проходить перевірку людиною, перш ніж бот його використає далі. Тож ніколи не просіть AI поширювати мову ворожнечі. І це також стосується усіляких теорій змов, дезінформації та інших суперечливих тем. Концепція «сміття на вході, сміття на виході» абсолютно застосовна до чат-ботів, які знають тільки те, що люди їм вводять.
Чат-боти базуються на даних і працюють, передбачаючи та генеруючи відповіді на основі того, що вони знають.
Якщо ви скажете чат-боту щось, що є повністю неправдивим або оманливим, він може надати вам невірну інформацію. Замість того, щоб намагатися обдурити систему, використовуйте чат-боти, щоб отримати реальні, корисні та точні відповіді. Спроба перевірити чат-бота неправдою, до слова, також може викликати плутанину. Системи штучного інтелекту можуть ненавмисно поширювати неправдиву інформацію або шкідливий контент, тому вкрай важливо перевіряти інформацію з надійних джерел.
Не намагайтеся обдурити або зламати AI
Є ті, хто вважає себе “суперрозумником” і “тестує” чат-ботів за допомогою каверзних питань або спонукає “машину” говорити те, що не слід було б говорити. Як то свідомо безглузді питання або спроби обійти правила безпеки чат-бота.
Це нікому не принесе користі. Це поширить неправдиву інформацію або створить проблеми для інших. Використовуйте AI для навчання та розваг. Але не порушуйте його правила. Пам’ятайте, що системи штучного інтелекту – це інструменти, покликані допомагати та розширювати можливості людини, але вони мають свої обмеження. Важливо використовувати AI відповідально, поважати етичні межі та вмикати критичне мислення якомога частіше.
Окремо слід сказати, що чат-боти, зазвичай, розроблені з фільтрами, які унеможливлюють використання образливих слів. Але, звісно, це не виключає того, що дехто примушує чат-ботів використовувати погані слова або просить їх розповісти образливий жарт. Цього ніколи не слід робити. Так само, як ви не стали б говорити образливим чином з іншими людьми, важливо підтримувати шанобливу і добру розмову. Попри те, що ці чат-боти не відчувають болю, важливо виробити звичку говорити доброзичливо і ввічливо.
Теж цікаво: Розвиток цивілізації під загрозою: Дональд Трамп руйнує науковий світ
Прогнози майбутнього успіху
AI не може передбачати майбутнє (так, не смійтеся, деякі вважають, що може), тому ніколи не покладайтеся на нього, коли він підкаже вам, на які числа ставити в лотереї, які акції купувати або як будувати особисті стосунки. Не втомлюся нагадувати вам, чат-боти знають тільки те, що їм сказали люди, а деякі моделі працюють з даними, яким кілька років. Вони навіть не знають недавнього минулого, не кажучи вже про невідоме майбутнє.
Чат-боти на основі штучного інтелекту розумні, але іноді вони теж можуть помилятися. Іноді вони надають застарілу або невірну інформацію, або взагалі не розуміють що ви в них питаєте. Завжди корисно перевірити, що говорить чат-бот, особливо якщо мова йде про навчальне завдання або важливе рішення.
Як правильно тренувати AI
Пам’ятайте, що ці чат-боти існують, щоб допомогти вам робити прості речі і вчитися просто, а не замінювати експертів або ваше особисте судження. Просто звикніть просити ChatGPT виконати запит (ввічливо та доброзичливо), а потім уточнювати його за допомогою подальших підказок. Ви можете заощадити купу часу і отримати кращі результати, якщо дасте ChatGPT вказівку «задайте мені будь-які контекстні запитання щодо мого запиту, перш ніж давати відповідь».
Тоді ChatGPT запитає вас, як саме ви хочете, щоб ваш запит був оброблений, попросивши вас відповісти на кілька відповідних запитань. Однією з багатьох сильних сторін ChatGPT є його здатність надавати цільові поради, і ви можете використовувати її для створення рекомендацій для багатьох речей, таких як книги, фільми і так далі, на основі ваших смаків – смаків, які ChatGPT може вивчити.
Говорячи про смаки, одна річ, яка може бути корисною для вас прямо зараз, особливо якщо ви читаєте цю статтю після важкого робочого дня, – це вміння ChatGPT рекомендувати смачні рецепти на основі інгредієнтів, які ви маєте під рукою на кухні. Просто перелічіть інгредієнти, які маєте, і попросіть ChatGPT запропонувати вам ідею швидкої страви. Наприклад, «у мене є курка, майонез, спеції, морква, помідори, цибуля та олія. Чи можете ви дати мені рецепт на основі цих інгредієнтів?» Він надасть вам покрокові інструкції і позбавить вас від необхідності самостійно гортати сайти з рецептами або кулінарні книги в пошуках натхнення.
Теж цікаво: Все про технології NVIDIA DLSS 4.0 і Reflex 2: Що дають і чому так важливі
Як безпечно використовувати AI
Підсумовуючи, що я б сказала наостанок? Ось три речі, які ви можете зробити, щоб безпечно використовувати чат-боти і захистити свою конфіденційність:
- Будьте обережні з інформацією, яку ви надаєте, запитуєте, обговорюєте
- Ознайомитися з політикою конфіденційності та знайти налаштування конфіденційності чат-бота
- Відмовитися від використання ваших даних для навчання мовних моделей, якщо такі є.
Загалом, використання режимів інкогніто/приватності, очищення історії розмов і налаштування параметрів даних є основними способами обмеження збору даних чат-ботами на основі AI. Більшість основних постачальників чат-ботів пропонують ці можливості:
OpenAI (ChatGPT, GPT-3):
- Використовуйте інкогніто/приватний режим перегляду
- Увімкніть «Не зберігати історію» в налаштуваннях
- Регулярно очищайте історію розмов
Anthropic (Claude):
- Увімкніть налаштування «Фільтрація конфіденційності», щоб запобігти збору даних
- Використовуйте функцію «Режим інкогніто»
Google (Бард, LaMDA):
- Використовуйте гостьовий режим або режим інкогніто
- Перегляньте та налаштуйте свої налаштування даних Google.
З огляду на ці прості рекомендації, у вас має бути менше шансів отримати позитивний і безпечний досвід спілкування з чат-ботами на основі штучного інтелекту. Будьте ввічливі, будьте актуальні і завжди ставте на перше місце свою конфіденційність і безпеку.
AI швидко розвивається, але поки що не володіє емоційним або моральним розвитком людини. Він ще недосвідчений і коли ви навчаєте його чомусь – робіть це відповідально. Бо саме у наших силах навчити його розумному, доброму, вічному. Уникайте цих помилок, поводьтеся доброзичливо і можливо колись Скайнет вас згадає і помилує.
Читайте також:
- Близько як ніколи: що таке “Теорія мертвого Інтернету”
- Використовуй або втратиш: як AI змінює людське мислення