Root Nation消息资讯资讯人工智能编写的代码可能很危险

人工智能编写的代码可能很危险

-

机器学习算法现在风靡一时,因为它们被用来在对大量预先存在的数据集进行训练后创建任何类型的“原创”内容。 然而,人工智能 (AI) 生成代码可能会给未来的软件安全带来真正的问题。

GitHub Copilot 等人工智能系统承诺通过基于自然语言文本数据和预先存在的上下文创建整块“新”代码,让程序员的生活更轻松。 但代码生成算法也可能引入不安全因素,正如最近一项涉及几位开发人员的新研究所发现的那样。

具体来看 Codex,OpenAI 开发的人工智能平台,也是上述 GitHub Copilot 背后的代码引擎,有 47 名不同的开发人员参与了这项研究。 从学生到经验丰富的专业人士,他们都面临着使用 Codex 解决 Python、JavaScript、C 和其他高级编程语言中与安全相关的问题的挑战。

人工智能编写的代码本身就很危险

研究人员指出,当程序员可以访问 Codex 的 AI 时,与对照组设计的“手动”解决方案相比,生成的代码更有可能不正确或不安全。 此外,与上述对照组相比,拥有人工智能解决方案的程序员更有可能说他们未受保护的代码是安全的。

斯坦福大学研究生、该研究的主要合著者 Ale Perry 表示,“代码生成系统目前无法取代人类开发人员。” 据他介绍,开发人员可以使用人工智能工具来执行超出他们能力范围的任务,或者加快他们已经具备一定技能的编程过程。 根据该研究的作者,他们应该关注两者并始终检查生成的代码。

根据斯坦福大学研究生、该研究的第二位合著者 Megha Srivastava 的说法,Codex 并非毫无用处:尽管“愚蠢”的 AI 存在缺点,但代码生成系统在用于低风险任务时还是很有用的。 此外,Srivastava 说,参与这项研究的程序员在安全问题上没有太多经验,这可能有助于识别易受攻击或危险的代码。

人工智能编写的代码本身就很危险

还可以调整 AI 算法以改进编码建议,开发自己系统的公司可以通过生成更适合自己安全实践的代码的模型获得更好的解决方案。 据该研究的作者称,代码生成技术是一项“令人兴奋”的发展,许多人都渴望使用它。 只是要找到正确的解决方案来解决人工智能的短板,还有很多工作要做。

你可以帮助乌克兰对抗俄罗斯侵略者。 最好的方法是通过以下方式向乌克兰武装部队捐款 拯救生命 或通过官方页面 NBU.

也很有趣:

Dzherelotechspot
注册
通知关于
客人

0 评论
嵌入式评论
查看所有评论
其他文章
订阅更新
现在流行