Root Nation消息资讯资讯技术专家要求停止人工智能实验

技术专家要求停止人工智能实验

-

技术领导者和著名的 AI 研究人员已经签署 打开信封,呼吁人工智能实验室和公司“立即暂停”他们的工作。

包括 Steve Wozniak 和 Elon Musk 在内的签署人一致认为,风险需要至少六个月的技术生产中断,超出范围 GPT-4. 这是为了从现在存在的 AI 系统中获得乐趣和满足感,并让人们适应它们并看到它们是有用的。

技术领袖和专家呼吁停止人工智能实验

这封信补充说,需要谨慎和深思熟虑来确保人工智能系统的安全,但它们却被忽视了。 GPT-4 是一种新的 OpenAI 模型,可以用文本响应书面或视觉消息,而此时各公司竞相使用该技术构建复杂的聊天系统。例子, Microsoft 最近确认其更新的Bing搜索引擎已经在GPT-4模型上运行了7周多,谷歌最近正式推出 诗人 – 拥有基于 LaMDA 的生成人工智能系统。

对人工智能的担忧由来已久,但采用最先进技术的竞赛显而易见 人工智能 第一个已经令人震惊。 “最近几个月,人工智能实验室卷入了一场不受控制的竞赛,以开发和实施越来越强大的数字思维,没有人——甚至连他们的作者——都无法理解、预测或可靠地控制,”信中写道。

技术领袖和专家呼吁停止人工智能实验

这封信由非营利组织未来生命研究所 (FLI) 发布,该组织致力于将全球灾难性和生存风险以及新技术(尤其是人工智能)的滥用降至最低。 此前,马斯克向 FLI 捐赠了 10 万美元用于 AI 安全研究。 除了他和 Wozniak 之外,签署人还包括 AI 领域的许多世界领导者,例如 AI 中心和数字政策主席 Mark Rothenberg、麻省理工学院物理学家和 FLI 主席 Max Tegmark,以及作家 Yuval Noah Harari。

上周,哈拉里还在纽约时报上与人合着了一篇专栏文章,警告与此相关的风险 人工智能,人道技术中心的创始人和公开信的其他签署人 Tristan Harris 和 Aza Raskin 与他一起工作。

该呼吁是在去年对 700 多名机器学习研究人员进行的一项调查之后发出的,其中近一半的人表示,人工智能产生“极其糟糕的后果”的可能性约为 10%,包括人类灭绝。 当被问及 AI 研究的安全性时,68% 的受访者表示需要做更多或更多的工作。

另请阅读:

注册
通知关于
客人

0 评论
嵌入式评论
查看所有评论
其他文章
订阅更新
现在流行