28 年 2024 月 XNUMX 日,星期四

桌面版 v4.2.1

Root NationНовини资讯资讯成千上万的人在未经他们同意的情况下接受了人工智能的治疗帮助

成千上万的人在未经他们同意的情况下接受了人工智能的治疗帮助

-

周五,Koko 联合创始人 Rob Morris 在 Twitter据 The Verge 报道,他的公司进行了一项实验,在没有事先通知的情况下向 4 人提供人工智能编写的心理健康建议。 批评者称该实验非常不道德,因为科科没有获得寻求建议的人的知情同意。 Koko 是一个非营利性心理健康平台,通过消息传递应用程序将需要心理健康护理的青少年和成年人与志愿者联系起来,例如 Telegram 和不和谐。

在 Discord 上,用户登录到 Koko Cares 服务器并向 Koko 机器人发送直接消息,后者会询问一系列多项选择题(例如,“你对此有过最黑暗的想法吗?”)。 然后匿名分享此人的关注,记录为几句话文本,与服务器上的其他人分享,他们可以用自己的短消息匿名回复。

https://twitter.com/RobertRMorris/status/1611450197707464706?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1611450197707464706%7Ctwgr%5Ea36b67a72ef02f3601dfae160441f1250a68dc2a%7Ctwcon%5Es1_c10&ref_url=https%3A%2F%2Farstechnica.com%2Finformation-technology%2F2023%2F01%2Fcontoversy-erupts-over-non-consensual-ai-mental-health-experiment%2F

Morris 说,在一项涉及约 30 条消息的人工智能 (AI) 实验中,帮助他人的志愿者可以选择使用 OpenAI 的 GPT-3 大型语言模型自动生成的响应,而不是独立编写响应(GPT-3 是背后的技术最近流行的 ChatGPT 聊天机器人)。 莫里斯在他的推文中指出,人们一直称赞人工智能生成的答案,直到他们知道这些答案是由人工智能编写的,这表明至少在实验的一个阶段缺乏知情同意:

“由 AI 编写(并由人类控制)的消息的评分明显高于人类自己编写的消息。 响应时间减少了 50%,不到一分钟。 然而……我们很快就从我们的平台上删除了这个功能。 为什么? 一旦人们发现消息是机器生成的,它就停止工作了。 模拟的同情似乎很奇怪,空洞的。”

江潮

在服务器介绍中,管理员写道:“Koko 将您与真正了解您的真实人联系起来。 不是治疗师,不是辅导员,只是像你这样的人。” 莫里斯发布消息后不久,他收到许多批评该实验不道德的回复,理由是担心缺乏知情同意,并质疑该实验是否已获得机构审查委员会 (IRB) 的批准。 在美国,除非 IRB 确定可以放弃同意,否则在没有合法有效的知情同意的情况下对人类受试者进行研究是非法的。

莫里斯在一条推文中回应称,该实验“免于”知情同意要求,因为他没有公布结果的计划,这引发了众怒。

使用 AI 作为治疗师的想法并不新鲜,但 Koko 的实验与典型的 AI 治疗方法的不同之处在于,患者往往知道他们不是在与真人交谈。 在 Koko 的案例中,该平台采用了一种混合方法,在这种方法中,人工中介可以在发送消息之前查看消息,而不是直接的聊天格式。 然而,在未经知情同意的情况下,批评者称 Koko 违反了旨在保护弱势群体免受有害或残忍研究实践影响的道德准则。

周一,Morris 发帖回应争议并解释 Koko 的 GPT-3 和 AI 之旅:“我以同理心和开放的态度接受对这项工作的批评、担忧和质疑。 我们致力于确保对 AI 的任何使用都是敏感的,并深切关注隐私、透明度和风险缓解。 我们的临床顾问委员会正在开会讨论未来工作的指南,包括 IRB 批准。”

你可以帮助乌克兰对抗俄罗斯侵略者。 最好的方法是通过以下方式向乌克兰武装部队捐款 拯救生命 或通过官方页面 NBU.

另请阅读:

DzhereloArstechnica
注册
通知关于
客人

0 评论
嵌入式评论
查看所有评论
其他文章
订阅更新

最近的评论

现在流行
0
我们喜欢您的想法,请发表评论。x