Root NationニュースITニュースChatGPT は医療クイズで実際の医師よりも高い得点を獲得しました

ChatGPT は医療クイズで実際の医師よりも高い得点を獲得しました

-

一部の医師は患者の治療方法を知らず、医療ノウハウが詰まった魂のないロボットに似ています。 しかし、人工知能が通常医師に尋ねられる質問に答え、うまく答えたらどうなるでしょうか? この疑問が、カリフォルニア大学によって行われた最近の研究のきっかけとなりました。 この研究では、共感的な質問に答える医師の能力と、それに答える人工知能の能力をテストしました。 一方、ChatGPT は 195 の医学的質問に対してより適切に回答しました。

研究者らは、AskDocs と呼ばれる公開サブレディットに投稿された質問を受け付けました。 たとえば、ある人は、つまようじを飲み込むのはどのくらい危険かを尋ねました。 別の者は、金属棒に頭をぶつけたら脳震盪を起こすかどうか尋ねた。 質問には、司会者によって資格が確認された医療従事者が回答しました。 研究者らはまた、ChatGPT を通じて質問を実行して回答を得ました。

医師のグループは、チャットボットと医師のどちらの答えがより優れているかを尋ねられましたが、グループには誰の答えなのかは分かりませんでした。 各ケースは 585 人の異なる裁判官によって審査され、スコアが平均化され、合計 79 点のスコアが得られました。 裁判の % で、裁判官は医師の回答よりも優れた情報が含まれ、より強調されたチャットボットの回答を好んだと回答しました。

医師からの回答と比較して、チャットボットの回答は品質に関しては約 4 倍、共感に関しては約 10 倍の最高評価を受けました。 また、チャットボットの応答は医師の応答よりも約 4 倍長かったです。

AI言語モデルを活用してコードのデバッグからデータの異常検出まで、

研究によると、多忙な医師がオンラインで自発的に質問に答えるよりも、チャットボットの方が思いやりのある患者ケアの印象をよりよく伝えることができます。

このようなツールが臨床現場で役立つかどうかはまだわかりません。 オンラインフォーラムは、事前に確立された関係とより個人化された患者と医師の間の典型的なやりとりを反映していない可能性があると研究者らは書いている。

ChatGPT は、一見一貫性があるように見える丁寧で読みやすい応答を提供しますが、基本的なコーディングや数学的な間違いがあり、応答に含まれる事実の多くは捏造または間違っています。

しかし、パンデミックにより遠隔医療が普及するにつれ、医師には患者からのメッセージが殺到しているため、生産性を向上させ、ケアを改善するツールが急務となっています。 たとえば、チャットボットは患者の質問に対する回答を作成し、医師はそれを編集できます。

また読む:

サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示