Categories: Новини IT

Anthropic стверджує, що її нові моделі перевершують GPT-4

Стартап Anthropic, що займається розробкою штучного інтелекту, анонсував останню версію своєї технології GenAI – Claude. І компанія стверджує, що вона конкурує з GPT-4 від OpenAI за продуктивністю.

Claude 3, як називають новий GenAI від Anthropic, – це сімейство моделей: Claude 3 Haiku, Claude 3 Sonnet і Claude 3 Opus, причому Opus є найпотужнішою. Усі вони демонструють “розширені можливості” в аналізі та прогнозуванні, як стверджує Anthropic, а також підвищену продуктивність у певних тестах порівняно з такими моделями, як GPT-4 (але не GPT-4 Turbo) та Google Gemini 1.0 Ultra (але не Gemini 1.5 Pro).

Примітно, що Claude 3 – це перший мультимодальний GenAI від Anthropic, тобто він може аналізувати як текст, так і зображення – подібно до деяких версій GPT-4 і Gemini. Claude 3 може обробляти фотографії, діаграми, графіки і технічні схеми, малюнки з PDF-файлів, слайд-шоу та інших типів документів. На крок краще, ніж деякі конкуренти GenAI, Claude 3 може аналізувати кілька зображень в одному запиті (максимум до 20). Це дозволяє йому порівнювати і контрастувати зображення, зазначає Anthropic. Але обробка зображень Claude 3 не безмежна.

Anthropic заборонила моделям ідентифікувати людей – без сумніву, побоюючись етичних та юридичних наслідків. І компанія визнає, що Claude 3 схильна робити помилки на “низькоякісних” зображеннях (менше 200 пікселів) і не справляється із завданнями, що передбачають просторове мислення (наприклад, читання циферблата аналогового годинника) і підрахунок об’єктів (Claude 3 не може дати точну кількість об’єктів на зображеннях). Claude 3 також не генерує ілюстрації. Моделі суто аналізують зображення – принаймні поки що.

У Anthropic кажуть, що клієнти можуть очікувати, що Claude 3 краще виконуватиме багатокрокові інструкції, створювати структуровані результати у форматах на кшталт JSON і розмовляти іншими мовами, окрім англійської, порівняно з попередніми версіями. Claude 3 також повинен рідше відмовлятися відповідати на запитання завдяки “більш тонкому розумінню запитів”, каже Anthropic. А незабаром моделі посилатимуться на джерело своїх відповідей на запитання, щоб користувачі могли їх перевірити. Деякі з цих покращень пов’язані з розширеним контекстом Claude 3.

Anthropic каже, що спочатку Claude 3 підтримуватиме контекстне вікно на 200 000 лексем, що еквівалентно приблизно 150 000 слів, а окремі клієнти отримають контекстне вікно на 1 млн лексем (~700 000 слів). Це на рівні з найновішою моделлю GenAI від Google, вищезгаданою Gemini 1.5 Pro, яка також пропонує контекстне вікно на мільйон лексем. Але те, що Claude 3 є оновленням попередньої версії, не означає, що вона досконала.

У технічному документі Anthropic визнає, що Claude 3 не застрахований від проблем, з якими стикаються інші моделі GenAI, а саме упередженості та галюцинацій (тобто вигадок). На відміну від деяких моделей GenAI, Claude 3 не може шукати інформацію в Інтернеті, моделі можуть відповідати на запитання, використовуючи дані до серпня 2023 року. Але Anthropic обіцяє часті оновлення Claude 3 у найближчі місяці.

Opus та Sonnet вже доступні в Інтернеті, а також через консоль розробника та API Anthropic, платформу Bedrock від Amazon та Vertex AI від Google. Haiku з’явиться пізніше цього року.

Якою б не була кінцева мета Anthropic, вона націлена на довгострокову перспективу. Згідно з витоками від травні минулого року, компанія має намір залучити до $5 млрд протягом наступних 12 місяців або близько того – що може бути лише базовим рівнем, необхідним для того, щоб залишатися конкурентоспроможною з OpenAI (зрештою, навчальні моделі коштують недешево.) Вона вже на шляху до цього, маючи $ млрд доларів і $4 млрд вже вкладеного капіталу та обіцянки від Google і Amazon відповідно, а також понад 1 млрд доларів від інших інвесторів разом узятих.

Читайте також:

Share
Julia Alexandrova

Кофеман. Фотограф. Пишу про науку та космос. Вважаю, нам ще рано зустрічатися з прибульцями. Стежу за розвитком робототехніки, на всяк випадок ...

Leave a Reply

Your email address will not be published. Required fields are marked*