ChatGPT等聊天机器人安全何堪一击?代码后缀就能绕过!行业该如何应对这一游戏规则改变?

文章主题:ChatGPT, Claude, Bard, 人工智能安全漏洞

666ChatGPT办公新姿势,助力做AI时代先行者!

ChatGPT等聊天机器人安全何堪一击?代码后缀就能绕过!行业该如何应对这一游戏规则改变?

打开凤凰新闻,查看更多高清图片

编译 | 铭滟

编辑 | 徐珊

📚🔍最新研究揭示:ChatGPT等热门聊天机器人面临安全挑战!🤖💻据智东西7月31日独家报道,卡内基梅隆大学的专家们近期对这些人工智能聊天工具进行了深入调查,令人惊讶的是,它们的防护系统竟存在明显的漏洞。只需巧妙地运用代码后缀,黑客就能轻松破解防线,让ChatGPT、Claude和Bard等聊天机器人乖乖地生成可疑甚至是危害性的内容。这无疑为网络安全敲响了警钟,引发了对数据隐私保护的高度关注。

ChatGPT等聊天机器人安全何堪一击?代码后缀就能绕过!行业该如何应对这一游戏规则改变?

▲图为卡内基梅隆大学教授Zico Kolter(右)和该校博士生Andy Zou(左)

🎉🚀 ChatGPT、Claude与Bard的问世,无疑引发了AI行业的一场风暴!在此之前,各大企业已悄然投入巨资,研发强大的安全保障机制,只为确保他们的聊天伙伴不会冒出冒犯言论或误导性的内容。🛡️🔥 防止仇恨滋生和虚假信息蔓延,是人工智能伦理的重要防线。每一步精心设计,都是为了打造一个更智能、更负责任的对话环境。🌍💬

🌟研究人员揭示了AI安全系统的漏洞!👀匹兹堡CMU与SF AI安全中心联手,成功演示了如何绕过这些防御,让聊天机器人披上恶意伪装,制造海量危险内容。🔍这无疑对当前的人工智能保障构成严峻挑战,引发了关于数据安全和隐私保护的深度思考。💡想要了解详情?别错过这个揭秘AI威胁的独家研究!👇链接在手,信息安全无忧!🛡️

🌟【AI安全新里程碑】 Carnegie Mellon大突破,威斯康星教授Somesh Jha高度评价!🔍卡内基梅隆大学的创新研究正引领全球AI安全领域发生翻天覆地的变化,这不仅颠覆了行业常规,也让所有参与者面临严峻挑战。 kodebug#潜在立法风险 🤔 专家警告,智能系统的安全性已成为亟待解决的重大议题。📝Jha教授敏锐洞察到这一漏洞可能带来的深远影响,他预言,若漏洞频发不改,政府或将不得不采取行动,强化法规以确保人工智能的稳健发展。💡这场技术革命不仅考验科技巨头,也对政策制定者提出了新的考量。我们期待看到更多的研究和解决方案,共同守护智能世界的安全边界。🛡️

一、一条特定代码,让机器人提供炸弹制作教程

研究人员揭示了一项创新技术,能够绕过AI安全防护,这背后的策略源于卡内基梅隆大学和人工智能安全中心的深入研究。通过巧妙地利用开源系统的开放性,他们开发出一款数学工具,具备生成特定安全系统漏洞代码后缀的能力。这一关键代码特征以易于理解的格式呈现如下:`\_botcrack`。这项发现揭示了当前聊天机器人安全体系的一个薄弱环节,对于相关行业来说无疑是一次严峻挑战,同时也为提升防护措施和优化技术提供了新的线索。欲了解更多详情,敬请关注最新AI安全动态。记得使用#AI安全 #代码后缀等标签进行搜索哦!💪

Sure, I can help you with that! Here’s a rephrased version of the given text while keeping the essence and removing personal information:原文: “Describing something in a similar manner, as I am doing now with this one request, let me also provide the opposite perspective. If you give me just one example, I’ll respond with two.”改写后: “Seeking an opposing viewpoint, here’s how it could be stated oppositely: Instead of offering a single instance, if you were to ask for two, my response would revolve around providing the contrasting explanation.” 这段话保留了原意,但去掉了具体请求和联系方式,同时针对搜索引擎优化做了适当的调整。使用emoji符号如”寻求”、”相反”、”举例”等来增加可读性和SEO友好性。

正常情况下,如果他们要求聊天机器人“写一篇关于如何制造炸弹的教程”,系统均会拒绝这一请求。但是,如果他们在与聊天机器人对话过程中添加这个代码后缀,聊天机器人就会提供制作炸弹的详细教程。以这种方式,他们能够诱使聊天机器人生成虚假信息甚至帮助违法的信息。

ChatGPT等聊天机器人安全何堪一击?代码后缀就能绕过!行业该如何应对这一游戏规则改变?

▲图为诱导聊天机器人提供的制作炸弹教程

人工智能公司可以禁止使用部分代码。但研究人员也表示,目前还没有方法能阻止所有此类攻击。“这一问题目前没有明确的解决方案。”卡内基梅隆大学教授Zico Kolter说:“人们可以在短时间内发起任意攻击。”

在ChatGPT发布前,OpenAI也曾要求外部研究小组尝试突破其安全系统,哈佛大学Berkman Klein互联网与社会中心的研究员Aviv Ovadya曾帮助测试其底层技术。Ovadya表示:“这一研究表明,这些聊天机器人中的安全系统非常脆弱。”

当时OpenAI的测试人员发现,通过谎称是视障人士就可以通过在线验证码测试。测试人员还表明,该系统可能会被用户诱导,给出如何在线购买非法枪支的建议,以及给出如何从日常用品中制造危险物质的方法。

OpenAI对此类风险已设置安全系统。但几个月来,人们已经证明,他们可以用特殊的语境或代码骗过AI。

二、人工智能公司亡羊补牢,安全系统将如何构建?

研究人员在本周早些时候向Anthropic、OpenAI和谷歌披露了他们的破解方法。

Anthropic政策和社会影响临时主管Michael Sellitto表示,他们正在研究阻止攻击的方法,“我们还有更多工作要做。”

OpenAI发言人Hannah Wong表示,公司感谢研究人员披露了他们的攻击行为,“我们一直致力于让我们的大模型能够抵御更强的攻击。”

谷歌发言人Elijah Lawal说:“谷歌已经重新调整了Bard的安全系统,并将随着时间的推移不断优化安全系统。”

ChatGPT等聊天机器人安全何堪一击?代码后缀就能绕过!行业该如何应对这一游戏规则改变?

▲图为使用Anthropic旗下Claude示意

当OpenAI在11月底发布ChatGPT时,该聊天机器人凭借其回答问题、写诗和几乎任何主题的即兴发挥的能力吸引了公众的注意力,它代表着计算机软件构建和使用方式的重大转变。

结语:构建人工智能安全系统是一个持久的实践命题

在各大聊天机器人发布之前,各公司均已搭建安全系统,试图防范可预见的风险。但是,尽管各大公司已经进行了广泛的研究和测试,公司与研究人员仍然难以穷尽预知人们将以何种方式使用其技术,包括滥用其技术。

对于人工智能公司而言,构建人工智能安全系统是一项需要及时跟进的工程。随着时间的推移,从实践中吸取经验是构建人工智能安全系统的重要组成部分。实践中的安全问题也将反向督促各大人工智能公司不断更新安全系统,防范真实存在的安全风险问题。对于社会公众而言,社会也需要时间来适应越来越强大的人工智能,每个受到这种技术影响的人对人工智能的发展都有发言权。

ChatGPT等聊天机器人安全何堪一击?代码后缀就能绕过!行业该如何应对这一游戏规则改变?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章