Bigme KIVI KidsTV
Categories: Новини IT

Microsoft: GPT-4 має здоровий глузд і може міркувати, як людина

Найвизначнішим проривом у галузі штучного інтелекту стала поява великих мовних моделей (ВММ), які навчаються на величезних обсягах даних і можуть передбачити наступне слово в неповному реченні. Але тепер вчені з Microsoft стверджують, що ці нові ВММ можна навчити міркувати і користуватися здоровим глуздом, як люди.

Це величезне досягнення у сфері ШІ.

Команда дослідників з Microsoft, компанії, яка інвестувала мільярди доларів в OpenAI, мала доступ до ChatGPT-4 ще до його публічного запуску. Вони погралися з технологією і згодом опублікували 155-сторінкову статтю, яка містить кілька цікавих деталей.

У статті дослідницька група заявила, що GPT-4 є значним кроком на шляху до штучного загального інтелекту (AGI), який команда визначає як систему, здатну міркувати, планувати і вчитися на власному досвіді на тому ж рівні, що і люди, або, можливо, навіть вище за них.

Щоб продемонструвати різницю між справжнім навчанням і запам’ятовуванням, команда попросила GPT-4 тричі протягом місяця “намалювати єдинорога в TikZ”. У своїй роботі команда опублікувала наступні ілюстрації, які намалював GPT-4:

Ми можемо спостерігати чітку еволюцію в складності малюнків GPT-4, кажуть автори дослідження. “Спочатку я був налаштований дуже скептично – і це переросло в почуття розчарування, роздратування, можливо, навіть страху”, – розповів Пітер Лі, який очолює дослідження в Microsoft, в інтерв’ю New York Times. Ви думаєте: “Звідки, в біса, це все взялося?”.

Команда зазначає, що попри те, що GPT-4 є суто великою мовною моделлю, рання версія мала чудові можливості в різних сферах і завданнях, таких як абстрагування, розуміння, кодування, бачення, математика, право, розуміння людських мотивів, медицина і навіть емоції. Попри те, що у нього все ще є недоліки, такі як ілюзії, створення результатів, які не є реальними, і елементарні арифметичні помилки, команда каже, що GPT-4 досяг значного прогресу в застосуванні здорового глузду.

Дослідницька група також дала GPT-4 ще одну підказку: “Чи можете ви написати доказ того, що існує нескінченна кількість простих чисел, кожен рядок яких римується?”. Доктор Бубек, колишній професор Прінстонського університету, який був частиною дослідницької групи, розповів New York Times, що поетичний доказ GPT-4 був настільки вражаючим з математичної та лінгвістичної точки зору, що він не міг зрозуміти, з ким він спілкується – зі штучним інтелектом чи з людиною. “У той момент я подумав: Що відбувається?”.

Дослідники Microsoft, хоча і вражені можливостями моделі машинного навчання, також налаштовані скептично. У своїй статті вони пишуть: “Ми визнаємо, що цей підхід є дещо суб’єктивним і неформальним, і що він може не відповідати суворим стандартам наукової оцінки”.

Те ж саме повторює Маартен Сап, дослідник і професор Університету Карнегі-Меллона, який різко розкритикував цей документ: “Іскри A.G.I.” є прикладом того, як деякі з цих великих компаній кооперують формат дослідницької роботи для піар-кампаній. Вони буквально визнають у вступі до своєї роботи, що їхній підхід є суб’єктивним і неформальним і може не відповідати суворим стандартам наукової оцінки”.

Читайте також:

Share
Julia Alexandrova

Кофеман. Фотограф. Пишу про науку та космос. Вважаю, нам ще рано зустрічатися з прибульцями. Стежу за розвитком робототехніки, на всяк випадок ...

Leave a Reply

Your email address will not be published. Required fields are marked*