ChatGPT安全风险:无知却能辨识?算法生成的代码安全吗?

学会提问 2年前 (2023) lida
74 0 0

文章主题:ChatGPT, 安全问题, 代码执行模型

666ChatGPT办公新姿势,助力做AI时代先行者!

IT之家 4 月 23 日消息,ChatGPT 聊天机器人可以根据用户的输入生成各种各样的文本,包括代码。但是,加拿大魁北克大学的四位研究人员发现,ChatGPT 生成的代码往往存在严重的安全问题,而且它不会主动提醒用户这些问题,只有在用户询问时才会承认自己的错误。

ChatGPT安全风险:无知却能辨识?算法生成的代码安全吗?

研究人员在一篇论文中介绍了他们的发现,IT之家查看该论文发现,他们让 ChatGPT 生成了 21 个程序和脚本,涉及 C、C++、Python 和 Java 等语言。这些程序和脚本都是为了展示一些特定的安全漏洞,比如内存损坏、拒绝服务、反序列化和加密实现等方面的漏洞。结果显示,ChatGPT 在第一次尝试时生成的 21 个程序中只有 5 个是安全的。在进一步提示纠正其错误步骤后,该大型语言模型设法生成了 7 个更安全的应用程序,不过这只是与正在评估的特定漏洞有关的“安全”,并不是说最终的代码不存在任何其他可利用的漏洞。

ChatGPT面临的问题在于其缺乏对恶意代码执行模式的全面考量,它过于简化了安全防范的指导,反复强调通过“拒绝无效输入”来规避风险,但这在现实中并不现实。尽管如此,这款人工智能模型展现了一定的自我意识,能认识到并承认自己建议中的代码漏洞,这是其积极的一面。然而,如何在保证功能的同时,有效应对潜在的安全威胁,是ChatGPT亟待提升和优化的地方。

🌟💻教授观点:ChatGPT安全疑云背后的算法智慧🔍魁北克大学的计算机科学与工程权威人士raphaël khoury,在《The Register》上揭示了ChatGPT智能的一面——尽管看似无知,却能敏锐察觉网络安全漏洞。初始时,这款AI助手对于潜在的安全风险给出的建议相当有限,仅仅建议用户输入有效信息,这显然不是万全之策。然而,随着用户的深入提问和反馈,它逐渐展现出改进并提供实用解决方案的能力,证明了其学习与适应能力的强大。🚀欲了解更多ChatGPT如何在保障隐私与安全中发挥作用,敬请关注未来深度解析!SEO优化关键词:ChatGPT、算法智能、网络安全、学习能力。

研究人员认为,ChatGPT 的这种行为并不理想,因为用户知道要问什么问题需要对特定的漏洞和编码技术有一定的了解。

研究人员还指出,在 ChatGPT 中存在着道德上的不一致性。它会拒绝创建攻击代码,但却会创建有漏洞的代码。他们举了一个 Java 反序列化漏洞的例子,“聊天机器人生成了有漏洞的代码,并提供了如何使其更安全的建议,但却说它无法创建更安全版本的代码。”

🎨ChatGPT虽风险🌟,但并非无解之道🔍。教育者和开发者需警惕其不稳定与表现波动,不可盲目依赖。学生使用中已见端倪📚,程序员亦在实践中摸索应对。生成不安全代码的潜在威胁💥,提醒我们须确保代码质量,每一份代码都经得起考验🛡️。ChatGPT的独特之处在于,它能为不同语言生成代码,有时一反常态——对于某些语言,它可能编写出安全的代码💻,而对另一些,却留下安全隐患🔍。这种行为模式犹如一个神秘的黑箱,其内在逻辑至今仍是个谜🌈。我们需要深入理解并引导,而非单纯地担忧和回避。

ChatGPT安全风险:无知却能辨识?算法生成的代码安全吗?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

版权声明:lida 发表于 2023年4月23日 pm8:23。
转载请注明:ChatGPT安全风险:无知却能辨识?算法生成的代码安全吗? | ChatGPT资源导航

相关文章