三星禁止员工使用AI工具,担忧数据安全,内部代码已泄漏?

学会提问 2年前 (2023) lida
47 0 0

文章主题:三星, 生成式人工智能, ChatGPT, 数据安全

666ChatGPT办公新姿势,助力做AI时代先行者!

Samsung近期实施了一项创新举措,明确禁止职场员工在办公环境中运用生成式AI技术,例如ChatGPT和Bard等由OpenAI及谷歌提供的先进工具。此举源于对数据安全的高度重视,尤其是防止潜在的数据泄露风险。然而,值得注意的是,这一限制仅针对公司配备的设备,员工在非工作相关的时间和个人设备上使用人工智能仍被允许。此外,用户在三星生产的终端上使用生成式AI系统不受影响。这项政策旨在维护信息主权,同时也展示了公司在技术管理和数据隐私方面的谨慎态度。

三星禁止员工使用AI工具,担忧数据安全,内部代码已泄漏?

🌟Samsung’s latest move, announced by the company, stems from a recent internal code leak incident that shook their operations. Attention has been drawn to an alarming incident where within just 20 days of implementing ChatGPT, a cutting-edge AI tool, they experienced three accidents – two involving semiconductor machinery and one related to confidential meetings. This development underlines the need for cautious implementation and the importance of data security in the tech industry. 🚀

🌟Samsung忧心数据安全隐患!💡面对ChatGPT、Bard等热门AI平台可能将工作信息转移到外部服务器的风险,这家科技巨头正全力以赴,打造自家专属的AI生态系统。🛡️通过内部AI系统的构建,确保人工智能在可控的环境中助力员工生产力提升,保障公司的核心数据安全无虞。🚀未来智能办公,Samsung引领潮流!🌟

事实上,银行和科技公司都非常谨慎地对待信息泄漏问题,因此对人工智能的使用也非常谨慎。

🌟大型金融机构如摩根大通、美国银行和花旗,早已对生成式AI设下防线,明确禁止内部员工接触此类技术。他们担心第三方软件可能带来的安全隐患,尤其是像ChatGPT这样的智能工具,可能会不小心暴露核心的财务数据,引发监管风暴。亚马逊同样出于对数据隐私的重视,已向员工发出警告,要求他们在职场中避免使用ChatGPT。🛡️

文中图片来源于网络

三星禁止员工使用AI工具,担忧数据安全,内部代码已泄漏?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

版权声明:lida 发表于 2023年5月7日 pm8:36。
转载请注明:三星禁止员工使用AI工具,担忧数据安全,内部代码已泄漏? | ChatGPT资源导航

相关文章