ChatGPT禁令后,全球监管紧盯着AI安全,OpenAI如何保障人工智能系统的未来安全?

学会提问 2年前 (2023) lida
60 0 0

文章主题:

666ChatGPT办公新姿势,助力做AI时代先行者!

🔥【ChatGPT遭意大利封杀】🚀 惊闻OpenAI一疏忽,导致意大利用户隐私受损!🔍 法规大如天,ChatGPT因违规被迫下架,引发了全球对AI伦理的深思。💻 保护数据安全,用户知情权至关重要,任何技术的发展都不能以牺牲法律为代价。👩‍💼 意大利此举无疑是对未来AI合规之路的一记警钟,让我们共同期待更负责任的技术到来!🌐

ChatGPT禁令后,全球监管紧盯着AI安全,OpenAI如何保障人工智能系统的未来安全?

🌟【全球热议】ChatGPT安全引各国监管高度关注🌍 – 未成年保护与用户隐私成为焦点🔍随着ChatGPT的火爆,欧洲诸国如德国、法国、爱尔兰和西班牙等纷纷亮剑,对这款人工智能技术的安全性展开深度审查。尤其是在数据保护和未成年人权益方面,监管机构正严阵以待🛡️,确保科技发展的同时,不忽视任何潜在风险。全球用户对此也密切关注,期待一个安全、透明的AI环境💡。

🌟当与ChatGPT互动时,务必谨慎保护你的隐私💡。尽管这款AI语言助手强大,但遵循指导,不轻易透露敏感信息是明智之举。记住,你的数据安全至关重要🛡️。

🌟🚀GPT-4的革新速度引发了AI领域的深度忧虑,一些专业人士呼吁OpenAI加强对这款强大模型的安全管控,以防潜在的AI滥用风险。🛡️💻尽管创新的步伐迅猛,保障伦理与合规至关重要,防止技术失控带来的潜在危害。🔥

针对外界对OpenAI所关注的安全议题,该机构于4月6日凌晨在其官方博客上发表了详尽的回应。在这篇关键性的文章中,OpenAI不仅深入剖析了他们在保障安全方面所做的不懈努力,还透露了未来将如何应对更大规模模型的使用,比如GPT-4.5或GPT-5的计划,旨在提供更安心的服务环境。🌟💡

以下是 OpenAI 的博客原文。

🌟🚀OpenAI致力于推动AI安全与普惠,让每个人都能享受到智能带来的福祉!💡🌍ChatGPT已赢得全球赞誉,它不仅提升工作效率,激发创新思维,还能为个性化学习开启新篇章。🏆🌍

同时,我们也认识到,像任何技术一样,这些工具也带来了真正的风险,因此我们致力于确保安全措施在我们的系统中得到充分应用。

建立日益安全的人工智能系统

在发布任何新系统之前,我们进行严格的测试并征求外部专家的反馈,努力通过强化学习和人类反馈等技术来改进模型的行为,以及构建广泛的安全和监控系统。

例如,在我们最新的模型 GPT-4 训练完成后,我们花费了超过 6 个月的时间,在全公司范围内共同努力,使其更加安全可靠,并在公开发布之前进行对齐。

我们认为,强大的人工智能系统应该接受严格的安全评估。需要进行监管,以确保采取这种实践,并与政府积极合作,以确定最佳的监管形式。

ChatGPT禁令后,全球监管紧盯着AI安全,OpenAI如何保障人工智能系统的未来安全?

我们将从实际应用中学习,以改进保障措施。我们努力预防部署前可预见的风险,但实验室只能了解有限的情况。尽管进行了广泛的研究和测试,但我们无法预测人们将如何使用我们的技术,也无法预测人们会如何滥用它。

这就是为什么我们认为从实际应用中学习是创造和发布日益安全的人工智能系统的关键组成部分。

我们谨慎地、有计划地向越来越广泛的人群发布新的人工智能系统,并采取大量的保障措施,基于我们所学到的经验不断改进。

我们通过我们自己的服务和 API 向开发者提供最强大的模型,以便他们可以将这种技术直接集成到他们的应用程序中。这使我们能够监控并采取行动来防止滥用,不断构建减轻措施,以应对人们滥用我们系统的实际情况,而不仅仅是关于滥用可能出现的理论。

这些实践也使我们制定了越来越细致的政策,以防止行为对人们产生真实风险,同时还允许我们的技术发挥许多有益的作用。

重要的是,我们认为,社会必须有时间更新和调整日益强大的人工智能,并且所有受到这种技术影响的人都应该有重大发言权,以决定人工智能的进一步发展。

迭代式部署使我们更有效地将各相关方引入关于采用人工智能技术的对话中。

保护儿童

我们安全措施的一个重点是保护儿童。我们要求使用我们的人工智能工具的人必须年满 18 岁或经过父母的同意并年满 13 岁。

我们不允许我们的技术用于生成令人憎恶、骚扰、暴力或成人内容等其他类别。我们最新的模型 GPT-4 比 GPT-3.5 对违规内容回应的概率降低了 82%。

我们已建立了一个强大的监测系统,以监测滥用情况。GPT-4 现已面向 ChatGPT Plus 订阅用户,我们希望将其逐步推广至更多人。

我们付出了巨大的努力,以最大限度地减少我们的模型产生对儿童有害内容的可能性。例如,当用户试图将儿童色情材料上传到我们的图像工具时,我们会阻止并向「国家失踪和被剥削儿童中心」报告。

ChatGPT禁令后,全球监管紧盯着AI安全,OpenAI如何保障人工智能系统的未来安全?

除了我们的默认安全防护措施外,我们还与开发商合作,如非营利性组织 Khan Academy,他们建立了一个 AI 助手,既是学生虚拟导师,又是教师课堂助手,为学生们量身定制了安全保护措施。

我们还致力于开发功能,允许开发者设置更严格的模型输出标准,更好地支持需要这种功能的开发者和用户。

尊重隐私

我们的大型语言模型是基于广泛的文本语料库进行训练的,其中包括公开可用的、有许可的内容和由人工评审员生成的内容。我们不使用数据出售我们的服务、广告或构建人的画像——我们使用数据使我们的模型更有用。

例如,ChatGPT 通过在人们与其交谈的对话中进一步训练来提高回答效果。

尽管我们的一些训练数据包含公开互联网上的个人信息,但我们希望我们的模型了解世界,而不是私人个体。

因此,我们努力从训练数据集中删除个人信息,逐步调整模型以拒绝私人个体的个人信息请求,响应个人要求从我们的系统中删除其个人信息。这些步骤最大限度地减少了我们的模型可能生成包含私人个人信息的回复的可能性。

改善事实准确性

今天的大型语言模型工作的原理是基于它们「看到」的文本来预测下一组单词。在某些情况下,生成出来的单词可能不是事实准确的。

改善事实准确性是 OpenAI 和许多其他人工智能开发者的重点,我们在这方面已取得了初步的进展。

通过利用 ChatGPT 用户负反馈(被标记为不正确的输出内容)作为主要数据源,我们已经改善了 GPT-4 的事实准确性。GPT-4 比 GPT-3.5 更可能产生基于事实的准确内容。

在用户注册使用这项工具的时候,我们也告知他们 ChatGPT 可能不总是准确的。

但是,我们认识到还有很多工作要做,以进一步降低 AI 幻觉的可能性,并尽力向公众科普目前这些人工智能工具的限制。

持续研究和合作

我们认为,解决人工智能安全问题的实际方法是投入更多的时间和资源研究有效的减缓和对齐技术,并在真实滥用案例中测试它们。

重要的是,我们也相信,改进人工智能的安全性和能力应该与更多人一起合作。

我们到目前为止做得最好的安全工作,是与我们最强大的模型(编者注:指内部目前比 GPT-4 更强大的模型)一起工作,因为它们更擅长遵循用户的指示并更容易被引导或「指导」。

ChatGPT禁令后,全球监管紧盯着AI安全,OpenAI如何保障人工智能系统的未来安全?

我们将越来越谨慎地创建和部署更强大的模型,并将继续增强安全预防措施,随着我们的人工智能系统的不断发展。

虽然我们等了 6 个多月才部署 GPT-4,以更好地了解其能力、好处和风险,但我们确实需要花比这更长的时间来提高人工智能系统的安全性。

因此,决策者和人工智能提供商需要确保全球范围内有效地管理人工智能的开发和部署,以便没有人为了取得领先地位而走捷径。这是一个艰巨的挑战,需要技术和制度创新,但我们非常愿意为之贡献力量。

解决安全问题还需要社会广泛的辩论、实验和参与,包括对人工智能系统行为范围的讨论。我们已经并将继续促进利益相关者之间的合作和开放对话,创建一个安全的人工智能生态系统。

? 原文链接:https://openai.com/blog/our-approach-to-ai-safety

ChatGPT禁令后,全球监管紧盯着AI安全,OpenAI如何保障人工智能系统的未来安全?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章