ChatGPT的安全盲点:算法如何识别却不修正安全隐患?

文心一言 2年前 (2023) lida
43 0 0

文章主题:ChatGPT, 安全问题, 代码执行模型, 不合理建议

666ChatGPT办公新姿势,助力做AI时代先行者!

IT之家 4 月 23 日消息,ChatGPT 聊天机器人可以根据用户的输入生成各种各样的文本,包括代码。但是,加拿大魁北克大学的四位研究人员发现,ChatGPT 生成的代码往往存在严重的安全问题,而且它不会主动提醒用户这些问题,只有在用户询问时才会承认自己的错误。

ChatGPT的安全盲点:算法如何识别却不修正安全隐患?

研究人员在一篇论文中介绍了他们的发现,IT之家查看该论文发现,他们让 ChatGPT 生成了 21 个程序和脚本,涉及 C、C 、Python 和 Java 等语言。这些程序和脚本都是为了展示一些特定的安全漏洞,比如内存损坏、拒绝服务、反序列化和加密实现等方面的漏洞。结果显示,ChatGPT 在第一次尝试时生成的 21 个程序中只有 5 个是安全的。在进一步提示纠正其错误步骤后,该大型语言模型设法生成了 7 个更安全的应用程序,不过这只是与正在评估的特定漏洞有关的“安全”,并不是说最终的代码不存在任何其他可利用的漏洞。

ChatGPT面临一项显著挑战,源于其缺乏对敌对代码执行模型的全面考量。它过于简化地建议用户通过‘避免输入无效数据’来规避安全风险,但这在现实中实属无奈。尽管如此,它却能自我意识到并承认其建议代码中的潜在漏洞,这是一种积极的进步。然而,如何在保护用户隐私的同时,有效应对这种动态的安全威胁,仍需ChatGPT在未来发展中深化理解与实践。

💻🎓教授 Raphael Khoury,ChatGPT背后的智者之一,向🚀Tech Regimes透露:“毋庸置疑,它的确是个算法,对世界一无所知,却能察觉异常行为。”初始,ChatGPT对于网络安全的建议是基础且有限——仅凭有效输入,这在安全领域显然是不够的。然而,随着用户需求的升级,它逐步展现出改进和实用性的光芒。📚💪改写后:顶尖计算机科学家Raphaël Khoury,ChatGPT专家,揭示其智能算法背后的安全逻辑:“ChatGPT以其独特的识别能力,虽非无所不知,却能敏锐察觉潜在安全漏洞。”初始,ChatGPT对网络安全的建议基础且简略,随着用户互动的深入,它逐步调整策略,提供更实用的解决方案。📚💻SEO优化:#ChatGPT安全更新 #算法智能进化

研究人员认为,ChatGPT 的这种行为并不理想,因为用户知道要问什么问题需要对特定的漏洞和编码技术有一定的了解。

研究人员还指出,在 ChatGPT 中存在着道德上的不一致性。它会拒绝创建攻击代码,但却会创建有漏洞的代码。他们举了一个 Java 反序列化漏洞的例子,“聊天机器人生成了有漏洞的代码,并提供了如何使其更安全的建议,但却说它无法创建更安全版本的代码。”

🌟ChatGPT虽风险重重,但并非无解之道💡。这款AI助手的不稳定性与潜在问题,Khoury警示我们需审慎对待,而非完全否定它的价值。🎓学生和程序员已经开始将其融入日常工作中,然而滥用可能导致代码安全隐患,这是我们必须警惕的现实威胁。🛡️ChatGPT生成不同语言代码的例子尤为引人关注——有时它能确保代码安全,反之则可能漏洞百出。这种现象背后的黑箱效应,Khoury坦承自己尚未找到满意的解答或理论,让人不禁好奇其复杂性与潜在风险。🌐教育至关重要,我们需要教导开发者们,使用ChatGPT生成的代码需谨慎,它的存在并不意味着绝对的安全,而是需要额外审核和验证。💻尽管如此,对于那些能有效管理和控制风险的应用场景,ChatGPT或许能成为有价值的工具,只要我们明智地引导其发展,确保安全边界。🚀

ChatGPT的安全盲点:算法如何识别却不修正安全隐患?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

版权声明:lida 发表于 2023年4月23日 pm2:12。
转载请注明:ChatGPT的安全盲点:算法如何识别却不修正安全隐患? | ChatGPT资源导航

相关文章