韩企关注:ChatGPT引发的数据泄露危机
文章主题:韩国, 关注, 热议, DS部门
本文来自微信公众号:芯东西 (ID:aichip001),作者:翊含,编辑:Panken,原文标题:《首起ChatGPT芯片机密泄露!三星成受害者》,题图来自:视觉中国(画面中紫色领带者为三星会长李在镕)
芯东西4月3日消息,据韩媒报道,三星设备解决方案(DS)部门才启用聊天机器人ChatGPT 20多天,就闹出了3起数据泄露事故,导致其与半导体设备测量、良品率/缺陷、内部会议内容等相关信息被上传到ChatGPT的服务器中。
事件一旦发生,立刻引发了我国网络上的热烈讨论。DS部门主管三星的核心业务,包括存储、芯片设计和晶圆代工等半导体领域,自今年3月11日起,允许员工使用ChatGPT。然而,三位员工为了方便,却将公司机密数据提供了给海外的相关机构。这一事件引起了广泛的关注,让人们再次思考了数据安全的重要性。
美国人工智能(AI)企业OpenAI是ChatGPT的开发商,但这3起泄密事故的锅可背不到OpenAI头上。在ChatGPT使用指南中,OpenAI已经明确说明输入ChatGPT聊天框的文本内容会被用于进一步训练模型,警告用户不要提交敏感信息。
三星公司已经采取了多种应对措施来防止再次出现类似的信息泄露事件,其中包括限制ChatGPT输入问题的长度以及禁止在办公电脑上使用该技术等紧急措施。此外,该公司还在积极筹备构建自己的人工智能服务,以加强自身的技术实力和防范风险的能力。目前,许多海外企业已经开始采取行动,限制或禁止员工使用ChatGPT,以保障公司的安全和信息的保密性。
3位员工将三星机密数据输入ChatGPT
美国初创公司OpenAI会获取用户们在ChatGPT输入的内容,并将这些数据用于进一步训练模型。如果用户提问的内容涉及企业机密,相关内容将会遭到大范围泄露。OpenAI也在ChatGPT使用指南中告知“不要输入敏感内容”。
三星电子担心ChatGPT的内部使用可能会发生公司内部机密等信息泄露的问题,一直在阻止在企业内使用ChatGPT。但从3月11日开始,DS部门允许使用ChatGPT。负责影像显示、家电、移动通信、医疗设备等业务的三星设备体验部门(DX部门)目前还禁止使用ChatGPT。
允许DS部门使用ChatGPT的原因是该部门负责人认为员工有必要认识到当代技术发生的变化。三星只是允许使用ChatGPT,并向员工们发布公告称:“注意公司内部信息安全,不要输入私人内容。”
在短短的二十天内,DS部门便遭遇了严重的“公司内部信息泄露”事件,这无疑让人感到忧虑。据三星电子所透露,该事故主要包括两起“设备信息泄露事故”以及一起“会议内容泄露事故”。在了解到这一情况后,三星迅速采取了“紧急措施”,其中包括对每个问题的上传容量做出限制,以确保信息的安全性。此外,三星还表示将对此事展开深入调查,并在必要时对涉及到的员工进行相应的惩戒,以防止类似事件的再次发生。
三星电子DS部门员工A某在运行半导体设备测量数据库(DB)下载程序的源代码时发生了错误。于是他复制所有有问题的源代码,输入ChatGPT,询问解决方法。
作为一名文章写作高手,我将按照您的要求对原文进行改写。员工B某将会把针对“设备测量”和“产量与缺陷”编写的程序代码全部提交至ChatGPT,寻求对其进行代码优化的帮助。
员工C某通过NAVER Clova应用程序(APP)将用智能手机录制的会议内容转换为文档文件后,输入到ChatGPT中,目的是要求制作会议记录。
三星电子已向全体员工传达了有关ChatGPT的最新信息,并告诫大家要谨慎对待该技术的应用。根据公司的内部公告,警告员工在使用ChatGPT时要时刻注意:“一旦在ChatGPT中输入内容,数据便会立即传输至外部服务器并进行存储,这意味着公司对此类数据无法再行追回。此外,如果ChatGPT具备学习能力并且学习了相关内容,那么敏感信息可能会在不特定的大多数人之间传播。”
三星电子提高对生成式AI理解,限制使用ChatGPT
三星电子正积极筹备一项旨在预防ChatGPT泄露敏感信息的保护措施计划。据公司内部通知,一旦采取相关信息安全应急措施后,若类似事件仍有可能发生,将可能对公司内部网络实施限制,从而阻止ChatGPT的访问。
一位三星电子相关人士对询问此次信息泄露事故的记者说:“因为是公司内部情况,很难确认。”
三星电子认为生成式AI可能会使半导体生态系统发生变化,因此敦促管理层采取应对措施。上月22日,以全体高管为对象,以“ChatGPT登场,生成式AI创造未来”为主题举行了在线研讨会。三星电子副会长韩钟熙曾强调ChatGPT的重要性,强调有必要提高对生成型AI的理解。
为确保未来公司核心机密及个人隐私等数据安全,DX部门针对公司员工展开了一项关于ChatGPT使用的问卷调查。该问卷广泛涉及员工对于ChatGPT的实际使用经历,并深入探讨了他们对公司内部运用ChatGPT的意见与看法。
三星电子计划以问卷调查结果为基础,制定上传容量限制或业务PC(个人电脑)使用限制等内部规定,并与员工共享。
三星电子设备解决方案部门(DS部门)在最近的公告栏上发布了提醒注意ChatGPT误用的信息。各组长还对组员进行了ChatGPT可用范围等培训。
各大公司限制ChatGPT使用,制定ChatGPT使用指南
半导体业务大部分属于国家机密,一不小心就会上传报告等内部信息,泄露机密。全球钢铁制造厂巨头韩国浦项制铁为了防止通过ChatGPT泄露信息,正在准备通过内部Intranet(企业内部网)利用ChatGPT的途径,向员工进行引导。浦项制铁公司在内部协作平台“Teams”中引入ChatGPT功能,只在内部系统内使用ChatGPT,从而同时加强安全性和工作效率。
市场调查公司Gartner对62名企业人事负责人进行了问卷调查,结果显示,其中48%的人表示正在制定ChatGPT等AI聊天机器人业务的使用指南。
全球第二大存储芯片巨头韩国SK海力士除必要时刻外几乎禁止公司内部网使用ChatGPT。
韩国液晶面板行业的领军企业LG Display,一直致力于强化公司内部的信息安全和防范机密信息泄露。为了实现这一目标,该公司不仅通过内部公告和教育等方式,加强员工对公司信息安全的认识,还举办各种活动,提高员工的信息安全意识。与此同时,随着海外对于机密信息保护的日益重视,越来越多的企业开始限制使用ChatGPT。这是因为,这些企业担心,如果在ChatGPT中输入信息,AI可能会学习并泄露给外界,从而导致公司的机密信息泄露。因此,对于使用ChatGPT的公司来说,必须权衡其带来的便利与潜在风险,谨慎决策。
最近,JP摩根大通、美国银行、花旗集团、高盛、德意志银行等美国银行限制使用ChatGPT等AI聊天机器人。
据《日本经济新闻》等媒体报道,日本软银集团最近向全体员工通报了禁止在ChatGPT中输入机密信息等注意事项,该集团还计划制定了哪些业务或用途可以使用交互式AI的规则。
在日本,瑞穗金融集团、三菱UFJ银行、三井住友银行禁止将ChatGPT等交互式AI用于业务。此外,松下控股旗下松下Connect在制定信息泄露对策后才允许使用交互式AI。富士通设置了“AI伦理治理室”,提醒用户使用交互式AI时的注意点。
一位韩国商界相关人士称,ChatGPT一直以来都是热门话题,现在大家都在试着使用和学习,企业也需要更加警惕信息泄露等问题。
结语
ChatGPT在聊天界面和输入的信息极有可能会泄露,关于这一点并没有任何安全保障。各大公司纷纷意识到了这一点并立马开始建立完善的ChatGPT使用说明以提示员工谨慎使用这一软件。
ChatGPT像一把双刃剑,在为大家提出各种问题解决方案的同时,也让提问者经受着输入信息被泄露的风险。要想安全有效地使用这一软件,还需提高谨慎,在有完善的信息保护体系之前,不要输入任何有关企业机密信息的问题。
本文来自微信公众号:芯东西 (ID:aichip001),作者:翊含,编辑:Panken,信息来源:韩联社、韩国《经济学人》
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!