三星内部信息遭ChatGPT泄露,3员工被罚,企业该如何限制AI使用?

ChatGPT与Excel 2年前 (2023) lida
62 0 0

文章主题:ChatGPT, 信息泄露, 三星电子

666ChatGPT办公新姿势,助力做AI时代先行者!

本文来自微信公众号:芯东西 (ID:aichip001),作者:翊含,编辑:Panken,原文标题:《首起ChatGPT芯片机密泄露!三星成受害者》,题图来自:视觉中国(画面中紫色领带者为三星会长李在镕)

芯东西4月3日消息,据韩媒报道,三星设备解决方案(DS)部门才启用聊天机器人ChatGPT 20多天,就闹出了3起数据泄露事故,导致其与半导体设备测量、良品率/缺陷、内部会议内容等相关信息被上传到ChatGPT的服务器中。

🎉【震惊!】Samsung DS部门ChatGPT试用引发韩网热议🔥 —— 三星存储、芯片设计与晶圆代工等半导体重镇,于今年3月11日起悄悄开启ChatGPT权限,本以为能提高效率,却没想到短短几周内,竟有三位员工因“偷懒”之举,将敏感数据不翼而飞到海外!😱 这一事件迅速引发了业界和公众的广泛关注,对于科技与保密性的双重挑战,引发了深入的思考。💻 随着AI技术的发展,如何在利用其便利性的同时,确保信息安全成为了亟待解决的问题。👩‍💼 三星此举无疑为全球企业敲响了警钟,未来如何平衡创新与安全,值得我们共同探讨。🌍 #ChatGPT# #保密危机# #科技伦理

美国人工智能(AI)企业OpenAI是ChatGPT的开发商,但这3起泄密事故的锅可背不到OpenAI头上。在ChatGPT使用指南中,OpenAI已经明确说明输入ChatGPT聊天框的文本内容会被用于进一步训练模型,警告用户不要提交敏感信息。

🌟三星紧急行动:为信息安全筑防线!🛡️通过限制ChatGPT问题长度和办公电脑使用,这家科技巨头正在全力预防信息泄露风险。他们不仅在积极筹备保护措施,还计划打造自家的人工智能服务,以确保数据安全。👀全球范围内,多家企业已跟风,采取了阻止或限制员工使用ChatGPT的策略,以防潜在的信息安全隐患。🔥在这个AI时代,保护隐私和信息安全已成为头等大事!🌟

3位员工将三星机密数据输入ChatGPT

美国初创公司OpenAI会获取用户们在ChatGPT输入的内容,并将这些数据用于进一步训练模型。如果用户提问的内容涉及企业机密,相关内容将会遭到大范围泄露。OpenAI也在ChatGPT使用指南中告知“不要输入敏感内容”。

三星电子担心ChatGPT的内部使用可能会发生公司内部机密等信息泄露的问题,一直在阻止在企业内使用ChatGPT。但从3月11日开始,DS部门允许使用ChatGPT。负责影像显示、家电、移动通信、医疗设备等业务的三星设备体验部门(DX部门)目前还禁止使用ChatGPT。

允许DS部门使用ChatGPT的原因是该部门负责人认为员工有必要认识到当代技术发生的变化。三星只是允许使用ChatGPT,并向员工们发布公告称:“注意公司内部信息安全,不要输入私人内容。”

🌟【DS运营预警】不到两周,三星DS部门遭遇严重信息安全挑战!💥 两起设备数据泄漏与一场敏感会议内容不慎外泄,引发了公司内部的高度关注。Samsung迅速行动,采取了严格的”应急策略”——容量限制至1KB,以防止信息过载。🔍 现在,他们正深入调查以查明事故真相,并对违规者进行可能的纪律处分,确保信息安全防线坚如磐石。🛡️

三星电子DS部门员工A某在运行半导体设备测量数据库(DB)下载程序的源代码时发生了错误。于是他复制所有有问题的源代码,输入ChatGPT,询问解决方法。

🌟💻员工B已熟练地将”设备测量”与”产量监控&缺陷分析”的程序代码进行全面重构,旨在提升效率并减少错误。🎨💡ChatGPT的智慧注入下,代码质量得到了显著优化和升华。🚀💪期待看到运行如飞的效果,为团队省时省力!如果你想了解更多细节或寻求帮助,别忘了提问哦~🏆👩‍💻

员工C某通过NAVER Clova应用程序(APP)将用智能手机录制的会议内容转换为文档文件后,输入到ChatGPT中,目的是要求制作会议记录。

Samsung Electronics has issued a cautionary advisory to its workforce, urging cautious adoption of ChatGPT. The tech giant cautions in an internal memo that “every keystroke within ChatGPT immediately transmits data to external servers, where it can’t be retrieved. If the AI picks up sensitive information, there’s a risk of exposure to a wide audience, without any control from the company.” This reminder highlights the potential privacy and security concerns associated with using the popular language model, emphasizing the importance of responsible usage among employees.

三星电子提高对生成式AI理解,限制使用ChatGPT

🌟Samsung Electronics Takes Action to Secure ChatGPT Data: Enhanced Measures to Shield Sensitive Information 🚀In a proactive response to safeguard against potential data breaches through ChatGPT, the tech giant Samsung is rolling out robust security protocols. The company has made it clear to its workforce that “should any such incident persist despite emergency info protection measures, access to corporate networks may be temporarily restricted for ChatGPT.” 🤖🛡️Samsung’s commitment to information privacy is evident as it aims to minimize the risk of sensitive data being compromised through the popular AI platform. The company’s strategy underscores its dedication to maintaining a secure digital environment and ensuring the confidentiality of their operations. Stay tuned for more updates on how they’re fortifying their defenses against this evolving threat. #SamsungSecurity #ChatGPTProtection

一位三星电子相关人士对询问此次信息泄露事故的记者说:“因为是公司内部情况,很难确认。”

三星电子认为生成式AI可能会使半导体生态系统发生变化,因此敦促管理层采取应对措施。上月22日,以全体高管为对象,以“ChatGPT登场,生成式AI创造未来”为主题举行了在线研讨会。三星电子副会长韩钟熙曾强调ChatGPT的重要性,强调有必要提高对生成型AI的理解。

为了防止今后公司主要机密和个人信息等泄露,DX部门就ChatGPT的使用情况对公司员工进行问卷调查。 问卷不仅包括询问是否有使用ChatGPT的经验,还包括询问对公司内部使用ChatGPT的看法等内容。

三星电子计划以问卷调查结果为基础,制定上传容量限制或业务PC(个人电脑)使用限制等内部规定,并与员工共享。

三星电子设备解决方案部门(DS部门)在最近的公告栏上发布了提醒注意ChatGPT误用的信息。各组长还对组员进行了ChatGPT可用范围等培训。

各大公司限制ChatGPT使用,制定ChatGPT使用指南

半导体业务大部分属于国家机密,一不小心就会上传报告等内部信息,泄露机密。全球钢铁制造厂巨头韩国浦项制铁为了防止通过ChatGPT泄露信息,正在准备通过内部Intranet(企业内部网)利用ChatGPT的途径,向员工进行引导。浦项制铁公司在内部协作平台“Teams”中引入ChatGPT功能,只在内部系统内使用ChatGPT,从而同时加强安全性和工作效率。

市场调查公司Gartner对62名企业人事负责人进行了问卷调查,结果显示,其中48%的人表示正在制定ChatGPT等AI聊天机器人业务的使用指南。

全球第二大存储芯片巨头韩国SK海力士除必要时刻外几乎禁止公司内部网使用ChatGPT。

韩国液晶面板龙头公司LG Display通过公司内部帖子和教育、活动等,随时强调公司内部信息保护和防止泄露等信息安全认识。海外因担心机密信息泄露而限制使用ChatGPT的企业越来越多。各家公司担心如果在ChatGPT中输入信息,AI可能会学习并泄露给外界。

最近,JP摩根大通、美国银行、花旗集团、高盛、德意志银行等美国银行限制使用ChatGPT等AI聊天机器人。

据《日本经济新闻》等媒体报道,日本软银集团最近向全体员工通报了禁止在ChatGPT中输入机密信息等注意事项,该集团还计划制定了哪些业务或用途可以使用交互式AI的规则。

在日本,瑞穗金融集团、三菱UFJ银行、三井住友银行禁止将ChatGPT等交互式AI用于业务。此外,松下控股旗下松下Connect在制定信息泄露对策后才允许使用交互式AI。富士通设置了“AI伦理治理室”,提醒用户使用交互式AI时的注意点。

一位韩国商界相关人士称,ChatGPT一直以来都是热门话题,现在大家都在试着使用和学习,企业也需要更加警惕信息泄露等问题。

结语

ChatGPT在聊天界面和输入的信息极有可能会泄露,关于这一点并没有任何安全保障。各大公司纷纷意识到了这一点并立马开始建立完善的ChatGPT使用说明以提示员工谨慎使用这一软件。

ChatGPT像一把双刃剑,在为大家提出各种问题解决方案的同时,也让提问者经受着输入信息被泄露的风险。要想安全有效地使用这一软件,还需提高谨慎,在有完善的信息保护体系之前,不要输入任何有关企业机密信息的问题。

本文来自微信公众号:芯东西 (ID:aichip001),作者:翊含,编辑:Panken,信息来源:韩联社、韩国《经济学人》‍‍

三星内部信息遭ChatGPT泄露,3员工被罚,企业该如何限制AI使用?

三星内部信息遭ChatGPT泄露,3员工被罚,企业该如何限制AI使用?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章