У США вже готуються до президентських виборів 2024 року, а OpenAI ділиться своїми планами щодо боротьби з дезінформацією, пов’язаною з виборами в усьому світі та робить акцент на підвищенні прозорості походження інформації. Одним із таких кроків є використання криптографії для кодування походження зображень, згенерованих DALL-E 3. Це дозволить платформі краще виявляти зображення, згенеровані ШІ, щоб виборці змогли оцінити достовірність певного контенту.
Цей підхід схожий, якщо навіть не кращий за SynthID від DeepMind, який накладає цифровий водяний знак на зображення та аудіо, згенеровані ШІ. Це є частиною власної стратегії Google щодо виборчого контенту, яку компанія оприлюднила минулого місяця. ШІ-генератор зображень від Meta також додає невидимий водяний знак до свого контенту, хоча компанія ще не розповіла про свої кроки в боротьбі з дезінформацією, пов’язаною з виборами.
OpenAI заявляє, що незабаром співпрацюватиме з журналістами, дослідниками та платформами для отримання відгуків про свій алгоритм виявлення походження. Крім того, користувачі ChatGPT почнуть бачити новини з усього світу в режимі реального часу з посиланнями. Вони також будуть перенаправлені на CanIVote.org, офіційне онлайн-джерело з питань голосування в США, коли ставитимуть питання щодо самої процедури, наприклад, де голосувати або як голосувати.
Крім того, OpenAI підтверджує свою поточну політику щодо припинення спроб видавати себе за інших у вигляді діпфейків і чат-ботів, а також контенту, створеного для спотворення процесу голосування або для того, щоб перешкодити людям брати участь у голосуванні. Компанія також забороняє застосунки, створені для політичної агітації, а за необхідності її нові GPT дозволяють користувачам повідомляти про потенційні порушення.
OpenAI заявляє, що досвід цих перших заходів, якщо, звісно, вони будуть успішними, допоможе їй розгортати подібні стратегії по всьому світу. У найближчі місяці компанія зробить більше відповідних оголошень.
Читайте також:
Leave a Reply