Root NationНовиниНовини ITChatGPT та інші чат-боти зі ШІ не перестануть вигадувати відповіді

ChatGPT та інші чат-боти зі ШІ не перестануть вигадувати відповіді

-

ChatGPT від OpenAI, Google Bard і ШІ Microsoft Bing неймовірно популярні завдяки своїй здатності швидко генерувати великий обсяг тексту і переконливо говорити, майже як людина, але “галюцинації” ШІ, також відомі як вигадки, є головною проблемою цих чат-ботів. На жаль, як попереджають експерти, ймовірно, так буде завжди.

У новому звіті Associated Press підкреслюється, що проблему з конфабуляцією великих мовних моделей (LLM) може бути не так легко вирішити, як стверджують багато засновників технологій і прихильників ШІ. Принаймні, в цьому впевнена професорка Вашингтонського університету Емілі Бендер, яка працює в Лабораторії комп’ютерної лінгвістики.

ChatGPT та інші чат-боти зі ШІ не перестануть вигадувати відповіді

“Це не можна виправити, – каже Емілі Бендер. – Це пов’язано з невідповідністю між технологією та запропонованими варіантами використання”.

Але, за словами президента компанії Jasper AI Шейна Орліка, в деяких випадках проблема вигадок насправді є перевагою. “Галюцинації насправді є додатковим бонусом, – говорить Шейн Орлік. – У нас є клієнти, які постійно розповідають нам, як їм спали на думку ідеї завдяки тому, що ШІ Jasper створив історії або ракурси, про які вони самі ніколи б не подумали”.

Аналогічно, галюцинації ШІ є величезною перевагою у випадку генерації зображень за допомогою штучного інтелекту. Такі моделі, як Dall-E і Midjourney, можуть створювати дійсно вражаючі образи. Однак для генерації тексту галюцинації залишаються реальною проблемою, особливо коли мова йде про новини, де точність є життєво важливою.

“[LLM] створені для того, щоб вигадувати речі. Це все, що вони роблять, – каже Емілі Бендер. – Але вони вигадують лише тоді, коли текст, який вони видають, можна інтерпретувати як те, що ми вважаємо правильним. І, на жаль, навіть після налаштувань у них все одно будуть збої – і, швидше за все, збої будуть в тих випадках, коли людині, яка читає текст, буде важче їх помітити”.

ChatGPT

LLM – це потужні інструменти, які можуть робити чудові речі, але компанії та технологічна індустрія повинні розуміти, що тільки тому, що щось є потужним, не означає, що це завжди хороший інструмент для використання. Відбійний молоток – це правильний інструмент для руйнування тротуару та асфальту, але ви не принесете його на археологічні розкопки. Аналогічно, впровадження чат-ботів зі штучним інтелектом в авторитетних новинних організаціях і позиціювання цих інструментів як інновацій, що заощаджують час журналістів, є фундаментальним нерозумінням того, як ми використовуємо мову для передачі важливої інформації.

Як говорить Емілі Бендер, штучний інтелект будується з нуля, щоб передбачати наступне слово в послідовності на основі підказки, яку ви йому даєте. Кожному слову в його навчальних даних надається вага або відсоток того, що воно слідуватиме за певним словом у певному контексті. Великі мовні моделі – чудові імітатори, які не мають жодного уявлення про те, що вони насправді говорять, і поводження з ними як з чимось іншим неминуче призведе до неприємностей.

Ця слабкість закладена в самому LLM, і хоча “галюцинації” можуть бути зменшені в майбутніх ітераціях, їх неможливо виправити назавжди, тому завжди існує ризик невдачі.

Читайте також:

Джерелоtechradar
Підписатися
Сповістити про
guest

0 Comments
Новіші
Старіші Найпопулярніші
Вбудовані Відгуки
Переглянути всі коментарі
Підписатися на оновлення