29 年 2024 月 XNUMX 日星期五

桌面版 v4.2.1

Root Nation最新消息資訊科技資訊成千上萬的人在未經他們同意的情況下接受了人工智能的治療幫助

成千上萬的人在未經他們同意的情況下接受了人工智能的治療幫助

-

週五,Koko 聯合創始人 Rob Morris 在 Twitter據 The Verge 報導,他的公司進行了一項實驗,在沒有事先通知的情況下向 4 人提供人工智能編寫的心理健康建議。 批評者稱該實驗非常不道德,因為科科沒有獲得尋求建議的人的知情同意。 Koko 是一個非營利性心理健康平台,通過消息傳遞應用程序將需要心理健康護理的青少年和成年人與志願者聯繫起來,例如 Telegram 和不和諧。

在 Discord 上,用戶登錄到 Koko Cares 服務器並向 Koko 機器人發送直接消息,後者會詢問一系列多項選擇題(例如,“你對此有過最黑暗的想法嗎?”)。 然後匿名分享此人的關注,記錄為幾句話文本,與服務器上的其他人分享,他們可以用自己的短消息匿名回复。

https://twitter.com/RobertRMorris/status/1611450197707464706?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1611450197707464706%7Ctwgr%5Ea36b67a72ef02f3601dfae160441f1250a68dc2a%7Ctwcon%5Es1_c10&ref_url=https%3A%2F%2Farstechnica.com%2Finformation-technology%2F2023%2F01%2Fcontoversy-erupts-over-non-consensual-ai-mental-health-experiment%2F

Morris 說,在一項涉及約 30 條消息的人工智能 (AI) 實驗中,幫助他人的志願者可以選擇使用 OpenAI 的 GPT-3 大型語言模型自動生成的響應,而不是獨立編寫響應(GPT-3 是背後的技術最近流行的 ChatGPT 聊天機器人)。 莫里斯在他的推文中指出,人們一直稱讚人工智能生成的答案,直到他們知道這些答案是由人工智能編寫的,這表明至少在實驗的一個階段缺乏知情同意:

“由 AI 編寫(並由人類控制)的消息的評分明顯高於人類自己編寫的消息。 響應時間減少了 50%,不到一分鐘。 然而……我們很快就從我們的平台上刪除了這個功能。 為什麼? 一旦人們發現消息是機器生成的,它就停止工作了。 模擬的同情似乎很奇怪,空洞的。”

江潮

在服務器介紹中,管理員寫道:“Koko 將您與真正了解您的真實人聯繫起來。 不是治療師,不是輔導員,只是像你這樣的人。” 莫里斯發布消息後不久,他收到許多批評該實驗不道德的回复,理由是擔心缺乏知情同意,並質疑該實驗是否已獲得機構審查委員會 (IRB) 的批准。 在美國,未經具有法律效力的知情同意就對人類受試者進行研究是非法的,除非 IRB 確定可以放棄同意。

莫里斯在一條推文中回應稱,該實驗“免於”知情同意要求,因為他沒有公佈結果的計劃,這引發了眾怒。

使用 AI 作為治療師的想法並不新鮮,但 Koko 的實驗與典型的 AI 治療方法的不同之處在於,患者往往知道他們不是在與真人交談。 在 Koko 的案例中,該平台採用了一種混合方法,在這種方法中,人工中介可以在發送消息之前查看消息,而不是直接的聊天格式。 然而,在未經知情同意的情況下,批評者稱 Koko 違反了旨在保護弱勢群體免受有害或殘忍研究實踐影響的道德準則。

週一,Morris 發帖回應爭議並解釋 Koko 的 GPT-3 和 AI 之旅:“我以同理心和開放的態度接受對這項工作的批評、擔憂和質疑。 我們致力於確保對 AI 的任何使用都是敏感的,並深切關注隱私、透明度和風險緩解。 我們的臨床顧問委員會正在開會討論未來工作的指南,包括 IRB 批准。”

你可以幫助烏克蘭對抗俄羅斯侵略者。 最好的方法是通過以下方式向烏克蘭武裝部隊捐款 拯救生命 或通過官方頁面 NBU.

另請閱讀:

來源工匠
註冊
通知有關
客人

0 留言
嵌入式評論
查看所有評論
其他文章
訂閱更新

最近的評論

現在流行
0
我們喜歡您的想法,請發表評論。x