Root NationНовиниНовини ITChatGPT набрав більше балів у медичній вікторині, ніж справжній лікар

ChatGPT набрав більше балів у медичній вікторині, ніж справжній лікар

-

Деякі лікарі не вміють поводитися з пацієнтами, нагадуючи бездушних роботів, наповнених медичними ноу-хау. Але що, якби штучний інтелект відповідав на запитання, які зазвичай ставлять лікарю, і робив це якісно? Це питання стало поштовхом до нещодавнього дослідження, проведеного Каліфорнійським університетом. У дослідженні було перевірено здатність лікарів відповідати на емпатичні запитання та здатність штучного інтелекту відповідати на них. ChatGPT натомість краще відповів на 195 медичних запитань.

Дослідники взяли запитання, розміщені на публічному субредіті під назвою AskDocs. Наприклад, одна людина запитала, наскільки небезпечно ковтати зубочистку. Інший запитував, чи отримає він струс мозку, якщо вдариться головою об металевий прут. На запитання відповідав медичний працівник, чиї повноваження були перевірені модератором. Дослідники також пропустили запитання через ChаtGPT, щоб отримати відповідь.

Групу лікарів запитали, яка відповідь була кращою – чат-бота чи лікаря, але група не знала, чиї відповіді були чиїми. Кожен випадок розглядався трьома різними суддями, а оцінка усереднювалася, загалом було отримано 585 оцінок. У 79% випадків судді віддали перевагу відповідям чат-ботів, які містили якіснішу інформацію та були емфатичнішими, ніж відповіді лікарів.

Порівняно з відповідями лікарів, приблизно в 4 рази більше відповідей чат-ботів отримали найвищу оцінку за якість і приблизно в 10 разів більше – за емпатію. Відповіді чат-ботів також були приблизно в 4 рази довшими, ніж відповіді лікарів.

ChatGPT

Дослідження показує, що чат-боти можуть краще створювати враження турботливого догляду за пацієнтом, ніж зайнятий лікар, який добровільно відповідає на запитання онлайн.

Чи буде такий інструмент корисним у клінічній практиці, ще належить з’ясувати. Онлайн-форуми можуть не відображати типову взаємодію між пацієнтом і лікарем, де існують попередньо встановлені стосунки і більше персоналізації, пишуть дослідники.

І хоча ChatGPT надасть ввічливу, читабельну відповідь, яка на перший погляд здається послідовною, він припускається базових помилок у кодуванні та математиці, а багато фактів, включених до його відповідей, є вигаданими або неправильними.

Однак лікарі завалені повідомленнями від пацієнтів, оскільки пандемія популяризувала телемедицину, тому існує нагальна потреба в інструментах, які підвищують продуктивність і покращують обслуговування. Наприклад, чат-бот міг би складати відповіді на запитання пацієнтів, які потім міг би редагувати лікар.

Читайте також:

Джерелоsciencealert
Subscribe
Notify of
guest

0 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
Підписатися на оновлення