文章主题:ChatGPT, 数据泄露, AI安全
就在昨天,中国支付清算协会明确指出 “ChatGPT 这类智能化工具已经暴露出跨境数据泄露等风险。” 并发出 ” 谨慎使用 ChatGPT 等工具 ” 的倡议,该倡议强调支付行业从业人员要提高思想认识,依法依规使用 ChatGPT 等智能化工具,正确认识相关工具的机遇和风险,全面评估使用 ChatGPT 等工具处理工作内容的风险;倡议支付行业从业人员在使用 ChatGPT 等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、不上传非公开的资料及数据、客户资料、支付清算基础设施或系统的核心代码等内容;倡议各会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付行业安全。
一、ChatGPT 已发生多起数据泄漏事故
中国支付清算协会针对ChatGPT近期频发的数据安全问题,适时提出应对措施,旨在保护全球用户的隐私权益。这款人工智能语言模型已在全球范围内引发多起敏感信息泄露事件的担忧,如本月意大利个人数据保护局的严厉举措,宣布即日起全面禁止ChatGPT在该国使用,并对OpenAI处理意大利用户信息进行限制,同时启动了针对这一情况的深入调查。同样,在韩国,一家全球知名科技巨头(🌟)也因员工不当使用ChatGPT导致机密数据泄露,凸显出其在半导体核心业务领域的信息安全风险。这些事件引发了业界对于人工智能技术潜在风险的高度关注,也促使相关机构重新审视并加强数据安全防护。面对这一挑战,支付清算协会的倡议无疑是对数据保护和隐私保护的一次重要呼吁,旨在通过行业合作与法规制定,共同构建更安全、合规的数字环境。在此背景下,用户在享受ChatGPT带来的便利时,也需要提高警惕,确保个人信息的安全。
该泄露事件涉及三位员工,员工甲在运行半导体设备测量数据库下载程序的源代码时发生了错误,于是他复制所有有问题的源代码并将其输入到 ChatGPT 中询问解决方案。员工乙则将 ” 设备测量 ” 及 ” 产量和缺陷 ” 检测程序代码整个相关源输入 ChatGPT,要求 ChatGPT 帮助其优化代码。员工丙则是一名行政人员,其将用自己手机录制的会议内容转化为文字后,输入到 ChatGPT 中,要求 ChatGPT 优化这份录音转文字的稿件,使其看起来像一篇精心制作的会议纪要。
🌟【保密警钟】三星半导体事件揭示,企业信息安全至关重要!💡近期一桩内部泄密事件,三位员工不慎暴露了公司的敏感半导体数据,引发了对企业数据保护的深刻反思。🚫 一旦信息失守,后果严重——ChatGPT这样的高效工具可能面临网络限制,内部沟通渠道也可能受到影响。🛡️面对潜在风险,企业迅速采取行动,向所有员工传达明确信号:对于任何信息安全违规行为,公司将严格执行紧急响应措施,确保数据安全无虞。📚 若不幸发生类似事故,ChatGPT的连接将不再畅通,以此作为对潜在违规行为的警示。🚫此次事件再次强调,保护知识产权和商业机密是每个员工的责任。让我们共同守护企业网络安全,远离可能的信息泄露风险。🛡️🌟
事实上国内部分行业也已经对 ChatGPT 引发的敏感信息泄露问题发布了相关预警。除韩国某星外,微软、亚马逊等国际巨头企业亦对自己的员工发出预警,不要与 ChatGPT 分享公司的相关敏感信息,因为它们可能会被 ChatGPT 用于训练未来的语言模型。
🌟警惕ChatGPT数据风险!💼知名金融机构如花旗、德银、高盛和摩根大通已明确禁令,要求员工不得利用该技术处理工作中的敏感信息。数千名科技巨头与研究者联名呼吁,暂停AI研发以优先讨论和完善数据安全法规。🔍AI政策专家们站出来发声,The Center for A.I and Digital Policy紧随其后,向美国联邦贸易委员会施压,要求禁止OpenAI推出ChatGPT的商业版。这一举措旨在确保信息传输的安全与合规,为数据主权保驾护航。🛡️让我们共同关注,以科技的力量守护数据安全,迎接一个更透明、稳健的未来。🌐
二、ChatGPT 泄露数据风险点位分析
中国支付清算协会以及上述各企业对于 ChatGPT 数据泄漏风险的担忧不无道理。ChatGPT 的数据泄漏风险主要源于两部分,其一是 ChatGPT 本身的程序漏洞,其二是 ChatGPT 的工作原理。ChatGPT 本身的程序漏洞可能会导致用户的聊天内容泄露。这类事故已经发生过数次,就在上个月末。有部分网友生成自己的 ChatGPT 聊天栏中出现了其他人聊天记录的标题,3 月 25 日 OpenAI 发文证实是由于 ChatGPT 本身程序漏洞导致了泄露事故,OpenAI” 已紧急修复该漏洞并向用户致歉 “。事实上程序本身漏洞导致信息泄露并非 ” 不可饶恕 “,这些漏洞通常及时修补后就不会引起撼动 ChatGPT 根基的风波。而真正可能撼动 ChatGPT 根基的是后一种信息泄露风险点位,即 ChatGPT 的工作原理,实际上,ChatGPT 的工作原理就注定了其在现阶段很难解决信息泄露的问题。
具体而言,传统的聊天软件通常会声称 ” 本软件不会收集聊天记录、聊天信息也会点对点进行加密传输 “,事实上绝大部分的聊天软件也都会做到这一点。但是这一点对于 ChatGPT 而言几乎不可能实现,原因在于 ChatGPT 这类大语言模型一定会收集用户的聊天内容,并将其用于后续算法训练,以使得自身进一步迭代成为更加高效的 AI。因此,用户在与 ChatGPT 聊天的过程中提供的隐私内容,很可能会被 ChatGPT 收集,并成为其自身算法训练的素材,然后在其他场景中透露给别人。
于是 ” 故事 “(事故)就是这样产生的:某员工甲为图方便,将其单位的客户数据输入到 ChatGPT 中,希望 ChatGPT 根据数据生成相应的报告,其后这些客户数据就被 ChatGPT 收集并用作未来算法训练的素材。之后某商业间谍乙在使用 ChatGPT 时,询问 ChatGPT 某公司的客户数据大致是什么内容,ChatGPT 立刻就将其在员工甲处 ” 学习而来 ” 的知识告诉了乙……
当然,数据泄露的现实情况确实复杂多样,但这篇文章旨在以通俗易懂的方式揭示其核心。ChatGPT的工作机制尽管强大,但其训练原理本质上决定了它会收集用户信息用于模型优化,这一点OpenAI已在指南中多次强调。因此,隐私保护和合规问题,如数据跨境传输,是无法回避的挑战。短期内,如何平衡技术发展与隐私权益似乎仍是个棘手的问题。📚🛡️
三、企业引入 AIGC 服务的合规要点
🌟认知升级,生产力飞跃🔍——ChatGPT引领AI潮流对企业竞争力至关重要!💡然而,如何在现有的法规下巧妙利用这一创新工具,成为企业合规的新挑战。国情要求,我国早在AI监管领域树起先例,《互联网信息服务深度合成管理规定》于1月10日生效,为行业指引明路。🚀接下来,探讨如何合规最大化ChatGPT等技术潜能,将是每个明智企业的必修课。🌱
🌟了解最新动态!💡国家已出台多项法规,为AI生成内容(AIGC)和深度合成技术保驾护航。👀《互联网算法推荐》、《网络音视频》及《生态治理规定》,这些关键法律不仅规范了行业,还明确了对AIGC与深度合成的合规要求。对于希望在服务中应用这些前沿科技的企业来说,至关重要的是遵循以下几点原则:📝首先,确保所有活动符合现有法律法规;🛡️其次,透明度和责任界定不可忽视,用户数据安全是生命线;📈最后,持续关注法规更新,以适应快速发展的技术环境。记住,技术创新的同时,合规运营才是长久之计!🚀
1. 与深度合成服务提供者或者技术支持者的协议条款,重点关注在使用 AI 方面有何限制,有何免责场景。
2. 审查深度合成服务的提供作者与技术支持者是否履行了《互联网信息服务深度合成管理规定》中的合规任务。
3. 就员工内部使用 ChatGPT 等 AIGC 工具,制定合规使用政策,要求使用相关服务的员工至少应当明确哪些内容不可以通过 AIGC 处理,以避免企业自身敏感信息泄露。
4. 如企业引入的 AIGC 内容可能会向企业自身的客户披露,那就必须在对外服务时告知哪些内容是由 AI 生成的,应当警惕内容的风险,确保可能受影响人群的知情权。
四、写在最后
传统聊天软件的服务提供商通常不会收集聊天记录,聊天记录亦会点对点加密,但 ChatGPT 等 AIGC 却会不可避免地收集聊天内容用于后续的算法训练,以使自身 ” 迭代进化 “,用户提供的隐私信息很可能在这样的机制之下被披露给第三方,实际上 AIGC 正在慢慢改变隐私数据处理的边界与预期,这对企业合规、数据相关法律规范制定者、司法机关都是一个挑战,未来可能会涉及的数据合规尤其是数据出境等问题,可能仍需进一步探索与研究。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!