OpenAI отримала чергову скаргу через роботу її чат-бота ChatGPT, який згенерував неправдиву інформацію. Група захисників цифрових прав Євросоюза Noyb підтримала скаргу від громадянина Норвегії – як заявив Арве Х’ялмар Хольмен, ChatGPT назвав його вбивцею.
Щоб дізнатись останні новини, слідкуйте за нашим каналом Google News онлайн або через застосунок.
У скарзі повідомляється, що Арве Х’ялмар Хольмен вирішив подивитися, яку інформацію може надати ChatGPT, якщо користувач здійснить пошук за його ім’ям. На запит чат-бот створив неправдиву відповідь про те, що чоловік був засуджений до 21 року ув’язнення як “злочинець, який вбив двох своїх дітей і намагався вбити свого третього сина”.
Але це була не просто галюцинація ChatGPT. Чат-бот у відповіді змішав “чітко ідентифіковані персональні дані”, як-от реальна кількість і стать дітей Хольмена, а також його рідне місто, з “фальшивою інформацією щодо злочину”, зазначають представники Noyb.
Таким чином AI порушував вимоги “точності даних” Загального регламенту про захист даних (GDPR), оскільки Хольмен нібито не зміг легко виправити інформацію, як того вимагає регламент. І чоловік вважає, що його репутація залишається під загрозою, поки чат-бот генерує такі дані. Звісно, у діалозі є “крихітне” застереження, яке нагадує користувачам ChatGPT про необхідність перевіряти результати. Але далеко не всі це роблять, і наразі немає способу дізнатися, скільки людей могли ознайомитися з цією галюцинацією та повірили в її достовірність.
Зараз ChatGPT не видає хибні дані за запитом про Хольмена. Імовірно, оновлення виправило цю проблему. Але оскільки OpenAI раніше стверджувала, що не може виправляти інформацію, а лише блокувати її, фейкова історія про вбивцю дітей, ймовірно, досі зберігається у внутрішніх даних ChatGPT. І якщо Хольмен не зможе її виправити, це буде порушенням регламенту GDPR, говорять у Noyb.
Адвокати Noyb вважають, що на OpenAI потрібно тиснути, щоб компанія докладала більше зусиль для запобігання наклепницьким відповідям. Вони подали скаргу до норвезького органу з питань даних Datatilsynet і сподіваються отримати наказ, що вимагає від OpenAI “видалити наклепницькі результати та доопрацювати свою модель, щоб усунути неточні результати”. Крім того, Noyb пропонує накласти “адміністративний штраф для запобігання подібних порушень у майбутньому”.
Це не перший такий випадок. Наприкінці 2022 року австралійський мер погрожував подати до суду за наклеп після того, як ChatGPT заявив, що він потрапив до в’язниці. Приблизно тоді ж він приписав одному професору права фейкову історію про сексуальні домагання, а радіоведучому – звинувачення в розкраданні.
Торік OpenAI зіштовхнулася з тимчасовою забороною в Італії та штрафом у розмірі $16 млн після витоку даних про розмови користувачів і платіжну інформацію. Щоб відновити роботу чат-бота, OpenAI мала внести зміни, в тому числі надати “інструмент, за допомогою якого” користувачі “можуть вимагати та отримати виправлення своїх персональних даних, якщо вони були оброблені неточно при створенні контенту”. Якщо в Норвегії так само виявлять, що OpenAI не дозволяє користувачам виправляти дані, OpenAI може бути змушена внести в алгоритм роботи ще більше змін.
Читайте також: