分类: 资讯资讯

技术专家要求停止人工智能实验

技术领导者和著名的 AI 研究人员已经签署 打开信封,呼吁人工智能实验室和公司“立即暂停”他们的工作。

包括 Steve Wozniak 和 Elon Musk 在内的签署人一致认为,风险需要至少六个月的技术生产中断,超出范围 GPT-4. 这是为了从现在存在的 AI 系统中获得乐趣和满足感,并让人们适应它们并看到它们是有用的。

这封信补充说,需要谨慎和深思熟虑来确保人工智能系统的安全,但它们却被忽视了。 GPT-4 是一种新的 OpenAI 模型,可以用文本响应书面或视觉消息,而此时各公司竞相使用该技术构建复杂的聊天系统。例子, Microsoft 最近确认其更新的Bing搜索引擎已经在GPT-4模型上运行了7周多,谷歌最近正式推出 诗人 – 拥有基于 LaMDA 的生成人工智能系统。

对人工智能的担忧由来已久,但采用最先进技术的竞赛显而易见 人工智能 第一个已经令人震惊。 “最近几个月,人工智能实验室卷入了一场不受控制的竞赛,以开发和实施越来越强大的数字思维,没有人——甚至连他们的作者——都无法理解、预测或可靠地控制,”信中写道。

这封信由非营利组织未来生命研究所 (FLI) 发布,该组织致力于将全球灾难性和生存风险以及新技术(尤其是人工智能)的滥用降至最低。 此前,马斯克向 FLI 捐赠了 10 万美元用于 AI 安全研究。 除了他和 Wozniak 之外,签署人还包括 AI 领域的许多世界领导者,例如 AI 中心和数字政策主席 Mark Rothenberg、麻省理工学院物理学家和 FLI 主席 Max Tegmark,以及作家 Yuval Noah Harari。

上周,哈拉里还在纽约时报上与人合着了一篇专栏文章,警告与此相关的风险 人工智能,人道技术中心的创始人和公开信的其他签署人 Tristan Harris 和 Aza Raskin 与他一起工作。

该呼吁是在去年对 700 多名机器学习研究人员进行的一项调查之后发出的,其中近一半的人表示,人工智能产生“极其糟糕的后果”的可能性约为 10%,包括人类灭绝。 当被问及 AI 研究的安全性时,68% 的受访者表示需要做更多或更多的工作。

另请阅读:

Share
Svitlana Anisimova

办公室狂,疯狂的读者,漫威电影宇宙的粉丝。 我有 80% 的罪恶感。

发表评论

您的电邮地址不会被公开。 必填带*