内部代码遭泄露,三星彻底禁止员工使用ChatGPT

风险与机遇 2年前 (2023) lida
58 0 0

三星近期推出了一项新政策,禁止员工在工作场所使用生成式人工智能工具,包括OpenAIChatGPT和谷歌Bard等。此举是由于三星担心其数据将通过人工智能平台最终落入其他用户手中,因此对信息泄漏问题非常谨慎。不过该政策仅限公司设备,员工仍可以在个人设备上与工作无关的事情上使用人工智能工具,也不会影响到用户在三星生产的设备上使用生成式AI系统。

内部代码遭泄露,三星彻底禁止员工使用ChatGPT

据三星表示,此举措与上月发生的内部代码泄露事件有关。此前有报道称,三星电子内部引入ChatGPT工具不到20天,便发生了3起相关事故,两起涉及半导体设备,一起涉及会议内容。

三星内部备忘录显示,三星担心自身数据被传输到ChatGPT、Bard等人工智能平台的外部服务器上,最终导致泄露。因此三星正在开发自己的内部AI系统,让人工智能在安全的环境下提高员工生产效率。

事实上,银行和科技公司都非常谨慎地对待信息泄漏问题,因此对人工智能的使用也非常谨慎。

摩根大通、美国银行和花旗等大型银行是最早限制员工访问生成式AI系统的公司,早已对人工智能下了禁令。这些银行担忧第三方软件访问敏感信息会带来巨大的安全风险,因为ChatGPT等人工智能系统可能会泄露将银行的财务信息,导致更严格的监管行动。与之类似的,科技巨头亚马逊也出于数据保护的考量,警告员工不要在工作场合中使用ChatGPT。

文中图片来源于网络

举报/反馈

版权声明:lida 发表于 2023年5月7日 pm8:27。
转载请注明:内部代码遭泄露,三星彻底禁止员工使用ChatGPT | ChatGPT资源导航

相关文章