Норвезька компанія Factiverse займається перевіркою фактів. Вона використовує машинне навчання для перевірки контенту, створеного ШІ, і нещодавно залучила фінансування в розмірі €1 млн, щоб активніше працювати в цьому напрямку.
Інструменти компанії автоматично виявляють неточні результати, яких насправді доволі багато, і вони часто викликають суперечки. Наприклад, нью-йоркському адвокату довелося просити вибачення за використання фальшивих судових цитат, які йому надав ChatGPT. CNET довелося виправити 41 з 77 статей, які були написані за допомогою інструменту ШІ. Крім того, штучний інтелект Bing від Microsoft припустився численних помилок в аналізі звітів про прибутки та стверджував, що шпигував за працівниками.
Заснована у 2019 році, компанія Factiverse пропонує розв’язання цих проблем. Вона створює запатентовані моделі, які аналізують контент, створений штучним інтелектом. Ці моделі використовують дослідження Віная Сетті, який є співзасновником та технічним директором компанії. Він також є доцентом кафедри машинного навчання у Ставангерському університеті та провів понад десять років, досліджуючи питання аналізу текстів і графіків для перевірки фактів.
Його дослідження заклали основу для редактора Factiverse AI Editor. Інструмент запустили минулого року, і він може виявляти перекручування та помилки в текстах, створених чат-ботами на кшталт ChatGPT. Він також показує надійні джерела для висновків.
Отримане фінансування піде на подальші вдосконалення. “Ці інвестиції дозволять нам прискорити розробку наших критично важливих рішень для перевірки фактів і дадуть можливість ще більшій кількості компаній впевнено використовувати можливості штучного інтелекту“, – заявила гендиректорка і співзасновниця Factiverse Марія Амелі.
Крім того, Factiverse запустила пробну програму для журналістів. Повідомляється, що користувачі отримають 30 днів безкоштовного доступу до технології перевірки фактів. Factiverse сподівається, що новий інструмент та залучені кошти допоможуть розширити базу користувачів стартапу.
Голова компанії Еспен Егіл Хансен вважає, що галюцинації, пов’язані зі штучним інтелектом, є серйозною проблемою. “Випадки, коли компанії стикаються з юридичними наслідками за фактичні помилки у своїх чат-ботах, вже стали реальністю, – зазначив він. – У міру того, як ШІ все глибше проникає в наше повсякденне життя, забезпечення точності ШІ-моделей – це не просто питання доброго бізнесу, це фундамент, на якому будуються демократичні цінності”.
Читайте також:
Leave a Reply