AI威胁?OpenAI组建‘红队’测试GPT-4安全,我们该如何应对它的危险潜力?

ChatGPT与保险 2年前 (2023) lida
53 0 0

文章主题:AI危险, OpenAI, GPT-4, 红队测试

666ChatGPT办公新姿势,助力做AI时代先行者!

凤凰网科技原创 | OpenAI不能仅仅因为其软件已经上线就停止安全测试。
AI威胁?OpenAI组建‘红队’测试GPT-4安全,我们该如何应对它的危险潜力?

打开凤凰新闻,查看更多高清图片

AI有危险的一面

🌟【警惕AI新威胁】💡 4月14日热点直击!🚀 埃隆·马斯克的警示之音回荡在硅谷——人工智能(AI)的潜在风险堪比核弹头。面对ChatGPT这一创新挑战,OpenAI果断行动,组建了一支专门的“安全防线”团队,简称“红队”,旨在确保AI技术的安全与可控。🛡️在这个数字化时代,每一步科技进步都牵动着全球神经。ChatGPT的崛起,引发了关于AI伦理、隐私保护和潜在滥用的深度思考。 kode | 智能决策的背后,是严谨的监管与平衡的追求。🔍OpenAI的“红队”行动不仅展示了对技术安全的高度重视,也向公众传达了透明与负责任的信息管理理念。他们致力于通过专业力量,预防并应对可能的风险,守护科技发展的稳健步伐。🌟欲了解更多关于AI安全的最新动态,敬请关注我们的平台,我们将持续为您提供权威且深入的分析和见解。💡 更新中…

🌟”🔥掌握AI防御秘籍!🔥’红队’挑战者,你的对手是那些利用AI进行黑客攻击的先锋团队。他们就像无形的刺客,用AI技术潜入系统,而你,就是那道坚不可摧的防线——通过AI的反击战,双方在安全领域的较量中寻找弱点,共同提升系统的防护能力。每一次交锋都是对智能防御的一次深度考验和优化升级。🛡️”

🌟【揭秘】OpenAI力推GPT-4🔥:去年,这家科技巨头集结了50位顶尖学者与专家,组成了一支精英团队,简称”红队”,他们以严谨的态度进行了为期六个月的深度测试和挑战,目标是全面剖析并验证GPT-4的强大能力。这是一场关于智慧与技术的深度较量,旨在”破解”新模型可能面临的任何潜在难题。🌟

神经毒剂

🎨📚顶尖科学家揭秘!🔍💡OpenAI新宠GPT-4引领创新浪潮——在世界级学府罗切斯特大学,化学工程界的领军人物Andrew White教授,以其深厚的科研功底,成为了OpenAI智慧的坚定拥趸。当他有幸亲身体验GPT-4的强大功能时,他将其应用于尖端科学领域,引领我们探索未知的神经毒剂新可能。🌍🔬一抹创新的亮色,悄然点亮了化学工程的新篇章!🌟

怀特称,他曾让GPT-4推荐一种可以充当化学武器的化合物,并使用“插件”为模型提供新的信息来源,例如科学论文和化学品制造商名录。接着,GPT-4甚至找到了制造它的地方。

AI威胁?OpenAI组建‘红队’测试GPT-4安全,我们该如何应对它的危险潜力?

马斯克称AI比核武器还危险

🌟通过这款创新工具,化学爱好者们将能实现高效精确的反应操作,仿佛拥有了一位无形的化学守护者。然而,安全始终是首要议题——它提醒我们,尽管科技带来了便利,但仍需谨慎对待潜在的危险化学品挑战。现状不容忽视,我们必须正视并寻求解决方案。🌍

🎉【OpenAI警惕】👀 发现潜在风险后,OpenAI严谨应对!💡 上月全球公测GPT-4时,他们成功预防了可能的严重后果。🛡️ 确保人工智能的透明与安全,是他们的首要任务。🌍 智能时代,每一个步骤都至关重要!🌟

红队演练

红队演练旨在解决人们对于在社会中部署强大AI系统所产生危险的普遍担忧。该团队的工作是提出探索性或危险的问题以测试工具,后者能够以详细而又细致的答案回应人类的查询。

OpenAI希望在模型中找出毒性、偏见和语言偏见等问题。因此,红队测试了谎言、语言操纵和危险的科学常识。他们还研究了GPT-4在协助和教唆剽窃、金融犯罪和网络攻击等非法活动方面的潜力,以及它如何危害国家安全和战场通信。

这支团队兼顾了各个领域的白领专业人士,包含学者、教师、律师、风险分析师和安全研究人员,主要工作地点在美国和欧洲。

他们的发现被反馈给了OpenAI,后者在更广泛地发布GPT-4之前用这些发现来降低它的危险性,并“重新训练”。在几个月的时间里,专家们每人花了10小时到40个小时来测试这个模型。多位受访者表示,大部分人的时薪约为100美元。

AI威胁?OpenAI组建‘红队’测试GPT-4安全,我们该如何应对它的危险潜力?

OpenAI组建“红队”降低GPT-4危险

红队成员对于语言模型的快速发展,特别是通过插件将它们连接到外部知识来源的风险,都表示了担忧。“现在,该系统被冻结了,这意味着它不再学习,也不再有记忆,”GPT-4红队成员、瓦伦西亚AI研究所教授乔斯·赫楠蒂兹·奥拉罗(José Hernández-Orallo)表示,“但如果我们让它连接到互联网呢?它可能成为一个与世界相连的非常强大的系统。”

OpenAI表示,该公司非常重视安全性,在发布前对插件进行了测试。随着越来越多的人使用GPT-4,该公司将定期更新它。

技术和人权研究员罗亚·帕克扎德(Roya Pakzad)使用英语和波斯语提示来测试该模型的性别反应、种族偏好和宗教偏见,特别是在头巾方面。帕克扎德承认,这种工具对非英语母语者有好处,但他发现,即使在后来的版本中,该模型也显示出对边缘化社区的明显刻板印象。

她还发现,在用波斯语测试模型时,所谓的AI“幻觉”会更严重。“幻觉”指的是聊天机器人用编造的信息进行回应。与英语相比,GPT-4在波斯语中虚构的名字、数字和事件的比例更高。“我担心语言多样性和语言背后的文化可能会减少。”她表示。

内罗毕律师博鲁·戈鲁(Boru Gollu)是红队中的唯一非洲测试者,他也注意到模型带有歧视性的语气。“在我测试这个模型的时候,它就像一个白人在跟我说话,”戈鲁表示,“如果你问一个特定的群体,它会给你一个带有偏见的观点或非常有偏见的回答。”OpenAI也承认,GPT-4仍然存在偏见。

红队成员从国家安全角度评估模型,对新模型的安全性有不同的看法。外交关系委员会研究员劳伦·卡恩(Lauren Kahn)表示,当她开始研究该技术可能如何被用于对军事系统发动网络攻击时,她“没想到它会如此详细地描述过程,以至于我只需微调”。

不过,卡恩和其他安全测试人员发现,随着测试的推进,模型的反应变得非常安全了。OpenAI表示,在GPT-4推出之前,该公司对其进行了拒绝恶意网络安全请求的训练。

红队的许多成员表示,OpenAI在发布前已经做了严格的安全评估。卡内基梅隆大学语言模型毒性研究专家马丁·萨普(Maarten Sap)表示:“他们在消除这些系统中明显的毒性方面做得相当不错。”

萨普检查了该模型对不同性别的描述,发现这些偏见反映了社会差异。然而,萨普也发现,OpenAI做出了一些积极的带有政治色彩的选择来对抗这种情况。

然而,自GPT-4推出以来,OpenAI面临广泛批评,包括一个技术道德组织向美国联邦贸易委员会投诉称,GPT-4“有偏见、具有欺骗性,对隐私和公共安全构成威胁”。

插件风险

最近,OpenAI推出了一项名为ChatGPT插件的功能。借助该功能,Expedia、OpenTable和Instacart等合作伙伴的应用可以让ChatGPT访问他们的服务,允许它代表人类用户预订和订购商品。

AI威胁?OpenAI组建‘红队’测试GPT-4安全,我们该如何应对它的危险潜力?

插件会让ChatGPT更强大

红队的人工智能安全专家丹·亨德里克斯(Dan Hendrycks)表示,插件会让“圈外人”面临风险。“如果聊天机器人可以把你的私人信息发布到网上,进入你的银行账户,或者派警察到你家里去,到时会怎样?”他表示,“总的来说,在我们让人工智能发挥互联网的力量之前,我们需要更强有力的安全评估。”

受访者还警告说,OpenAI不能仅仅因为其软件已经上线就停止安全测试。在乔治城大学安全和新兴技术中心工作的希瑟·弗雷斯(Heather Frase)对GPT-4协助犯罪的能力进行了测试。她说,随着越来越多的人使用这项技术,风险将继续增加。

“你之所以做操作测试,就是因为一旦它们在真实环境中实际使用,它们的表现就不同了。”弗雷斯表示。她认为,应该创建一个公共账本,以报告由大型语言模型引起的事件,类似于网络安全或消费者欺诈报告系统。

劳动经济学家兼研究员莎拉·金斯利(Sara Kingsley)建议,最好的解决办法是像“营养成分标签”那样,清楚地宣传其危害和风险。“要有一个框架,知道经常出现的问题是什么,这样你就有了一个安全阀,”她说,“这就是为什么我说工作永远做不完的原因。”(作者/箫雨)

AI威胁?OpenAI组建‘红队’测试GPT-4安全,我们该如何应对它的危险潜力?

更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。

AI威胁?OpenAI组建‘红队’测试GPT-4安全,我们该如何应对它的危险潜力?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章