Нещодавно компанія Meta у співпраці з Microsoft представила нову Llama 2 – модель штучного інтелекту наступного покоління. Ця нова технологія дозволяє компаніям налаштовувати ШІ під свої конкретні потреби, наприклад, створювати чат-ботів і генератори зображень.
За словами реверс-інженера Алессандро Палуцці, схоже, що Meta розробляє кілька нових функцій генеративного ШІ для Instagram. Ці функції включають мітки, які допоможуть користувачам ідентифікувати зображення, “створені ШІ Meta”.
Якщо вам цікаво, чим займаються реверс-інженери, то вони є своєрідними детективами для технологій. Вони розбирають програмне забезпечення або пристрої, щоб з’ясувати, як вони працюють, навіть якщо вони не були тими, хто їх спочатку створив. Це схоже на розгадування головоломки, щоб зрозуміти приховані секрети, які стоять за технологією.
На скріншоті, яким поділився Палуцці, показано повідомлення в застосунку, яке пояснює, що пости, створені за допомогою генеративних інструментів штучного інтелекту Meta, незабаром можуть бути позначені в Instagram. Це свідчить про те, що компанія може бути зацікавлена в тому, щоб допомогти користувачам ідентифікувати контент, створений за допомогою штучного інтелекту.
Існує занепокоєння щодо безпеки та впливу безкоштовних інструментів штучного інтелекту, орієнтованих на споживача, на нашу присутність в Інтернеті. Дехто побоюється, що вони можуть сприяти поширенню дезінформації або вводити людей в оману. Щоб усунути ці побоювання, деякі компанії-розробники ШІ, зокрема Meta, пообіцяли вжити заходів безпеки ШІ, наприклад, використовувати водяні знаки для контенту, створеного штучним інтелектом. Впровадження міток для контенту, створеного ШІ, в Instagram може бути лише частиною цих заходів.
Оскільки ШІ продовжує розвиватися швидкими темпами, соціальні медіаплатформи повинні приділяти більше уваги контенту, створеному штучним інтелектом, і чітко позначати його, навіть якщо він згенерований за допомогою сторонніх застосунків або програмного забезпечення. В Instagram вже є багато згенерованих ШІ людиноподібних моделей, які видають себе за авторів контенту, що може призвести до плутанини та неправильного сприйняття реальності.
Читайте також:
Leave a Reply