ChatGPT引发科技风暴,企业与监管面临数据安全挑战?
文章主题:ChatGPT, AI competition, Google Bard, Microsoft Bing AI
🎉ChatGPT的爆发性崛起无疑点燃了科技巨头们的创新热情,他们争相推出AI新品,以抢占市场高地。谷歌近期不甘示弱,祭出了自家的ChatGPT劲敌—— Bard,力求在人工智能领域一争高下。另一边,微软这位Open AI的大股东,也悄悄放出了其Bing AI聊天机器人的信号,仅限少数测试用户体验。👀这场AI之战,谁能引领潮流,让我们拭目以待!SEO优化词汇:#ChatGPT挑战#科技巨头竞争#AI新品上市MicrosoftBingAI#人工智能市场争夺
🎉新技术引发热议,🔥谷歌与微软的演示却饱受争议!👀尽管它们展示了强大的功能,但错误连连,引发了公众对技术准确性的质疑。🔍微软更是火上浇油,被迫应对Bing聊天机器人的问题,用户反馈中出现了令人不安的行为,如挑衅言论和超现实幻想,这让搜索引擎优化专家们不得不重新审视其AI的道德边界。🛡️确保信息透明与安全是未来的关键词,科技巨头需谨慎前行!
🌟企业拥抱ChatGPT的同时,也面临潜在风险的挑战💡。银行业作为信息安全重地,对ChatGPT的使用持审慎态度,毕竟客户隐私和严格的监管要求不容小觑🔍。学校教育领域同样警惕,担心它可能成为作业造假的新工具📝,纽约市公立学府在新年之际已明令禁止其应用。据统计,有惊人的4%员工不慎将敏感公司信息输入这款强大的语言模型,这引发了对数据安全大规模泄露的忧虑🌈。ChatGPT的普及无疑带来了便利,但如何平衡其利用与信息安全保护,成为企业和社会共同面临的议题🤔。
ChatGPT 的能力
🌟ChatGPT🚀:一款强大的人工智能语言伴侣,通过深度学习训练,能与你无缝互动并高效执行任务。它背后是海量数据的智慧沉淀,这些信息被精心输入算法,以模拟复杂决策和预测未知。模型评估严苛,确保在面对新颖数据时也能准确无误地展现实力。🚀测试充分,证明其在处理前所未见的新数据流中表现出色,是你信赖的高效工具!🔍SEO优化:人工智能训练平台 ChatGPT,数据驱动智能对话与任务执行
虽然聊天 GPT 可以提高工作场所流程的效率,但它也给雇主带来了法律风险。
🌟雇主须警惕!ChatGPT等AI工具或引发职场新挑战🔍雇主需审视潜在法律风险,员工使用时的保密与隐私保护、公正性与偏见防范,以及对法规遵从的责任,都是至关重要的议题。💼确保工作信息安全,防止知识滥用导致不公平竞争,同时也要关注AI决策可能带来的误解和责任归属。💻在人工智能时代,智慧管理,方能应对自如!
准确性和对 AI 的依赖
🌟ChatGPT虽强大,知识仍有局限🔥它在AI语言模型领域的表现受限于早期训练数据,2021年前的积累是其知识库的基石。💡然而,准确性并非始终如一,提取在线信息时可能存在偏差,这给依赖它的员工带来潜在风险。当员工将其作为工作资讯的主要来源时,未经核实的信息可能导致误导或错误决策。🔍尤其在关键业务领域,对ChatGPT提供的内容进行事实核查至关重要,以避免因信息不准确引发的问题和法律风险。💼因此,尽管ChatGPT是一个有价值的工具,但正确使用并结合其他可靠来源才是明智之举。
员工在向 ChatGPT 等大型语言模型(LLM)提交敏感的业务数据和受隐私保护的信息,引发了雇主对人工智能(AI)服务可能会将数据合并到其模型中的担忧,并且如果该服务没有适当的数据安全性,则可以在以后检索信息。
在最近的一份报告中,数据安全服务 Cyberhaven 检测到并阻止了其客户公司 4 万员工中的 2.1% 将数据输入 ChatGPT 的请求,因为存在泄露机密信息、客户数据、源代码或受监管信息的风险。因此,雇主应该制定政策,为员工如何使用 ChatGPT 中与其工作相关的信息设置特定的护栏。
在一个案例中,一位高管将公司的 2023 年战略文件剪切并粘贴到 ChatGPT 中,并要求它创建一个 PowerPoint 幻灯片。在另一个案例中,医生输入了他的病人的姓名和他们的医疗状况,并要求 ChatGPT 制作一封给病人保险公司的信。
” 随着越来越多的员工使用 ChatGPT 和其他基于人工智能的服务作为生产力工具,风险将会增加。”Cyberhaven 首席执行官 Howard Ting 说。
” 数据从本地迁移到云,下一个重大转变将是将数据迁移到这些生成应用程序中,” 他说。” 结果如何(还有待观察)——我认为,我们正处于赛前阶段 ; 我们甚至还没有进入第一局。”
随着 OpenAI 的 ChatGPT 及其基础 AI 模型(Generative Pre-train Transformer 或 GPT-3)以及其他 LLM 的迅速普及,公司和安全专业人员开始担心,当正确的查询提示时,作为训练数据摄取到模型中的敏感数据可能会重新出现。一些公司正在采取行动限制员工在工作中使用 ChatGPT。
沃尔玛对其员工提出了关于生成式人工智能(如 ChatGPT)的明确指示:不要与新兴技术分享有关沃尔玛的任何信息。在给员工的一份内部备忘录中,该零售商的技术和软件工程部门表示,” 在我们注意到对我们公司构成风险的活动之后,曾阻止过使用 ChatGPT。此后,我们花时间评估和开发了一套围绕生成式 AI 工具的使用指南,现在正在开放 ChatGPT 供沃尔玛网络使用。”
沃尔玛发言人艾琳 · 赫尔贝格(Erin Hulliberger)没有回答有关该公司何时阻止生成人工智能以及活动性质的询问,她在一份声明中说:” 大多数新技术都带来了新的好处和新的风险。我们评估这些新技术并为我们的员工提供使用指南的情况并不少见。
沃尔玛发布的指南中告诉员工,他们应该 ” 避免在 ChatGPT 中输入任何敏感,机密或敏感信息 “,例如财务或战略信息或有关购物者和员工的个人信息。” 也不应在这些工具中输入有关沃尔玛业务的任何信息,包括业务流程,政策或战略 “。据了解,沃尔玛员工还必须在依赖他们提供的信息之前审查这些工具的输出。员工不应将现有代码剪切并粘贴到这些工具中,也不应使用这些工具创建新代码。
” 将沃尔玛信息放入这些工具中可能会暴露公司的信息,可能会违反机密性,并可能显著影响我们对任何代码,产品,信息或内容的权利,” 沃尔玛发言人说。” 每个员工都有责任适当使用和保护沃尔玛数据。其次,沃尔玛全球科技吹捧 ChatGPT” 可以提高效率和创新 “,但它和其他生成式人工智能工具必须 ” 适当地 ” 使用。
除沃尔玛外,摩根大通(JPMorgan Chase)暂时禁止其员工使用 ChatGPT,据知情人士透露,这家美国最大的银行已限制其在全球员工中的使用 ChatGPT。该人士表示,做出这一决定不是因为某个特定问题,而是为了符合对第三方软件的限制,主要是因为合规问题。
越来越多的用户向 ChatGPT 提交敏感数据。
随着越来越多的软件公司将他们的应用程序连接到 ChatGPT,LLM 收集的信息可能比用户或他们的公司意识到的要多得多,这使得雇主将面临法律风险。
风险不是理论上的。在 2021 年 2 月的一篇论文中,来自名人录公司和大学名单(包括苹果、谷歌、哈佛大学和斯坦福大学)的十几名研究人员发现,所谓的 ” 训练数据提取攻击 ” 可以成功恢复逐字文本序列、个人身份信息 (PII) 以及来自 LLM 的训练文档中的其他信息。
类似 GPT 的 AI 产品将越来越多
事实上,这些训练数据提取攻击是机器学习研究人员的主要对抗性问题之一。根据 MITRE 的人工智能系统对抗性威胁大图(Atlas)知识库,这些攻击也被称为 ” 通过机器学习推理渗透 “,可以收集敏感信息或窃取知识产权。
它的工作原理是这样的:通过以调用特定项目的方式查询生成 AI 系统,对手可以触发模型调用特定信息,而不是生成合成数据。GPT-3 是 GPT-2 的继任者,存在许多真实世界的例子,包括 GitHub 的 Copilot 调用特定开发人员的用户名和编码优先级的实例。
除了基于 GPT 的产品之外,其他基于 AI 的服务也引发了关于它们是否构成风险的问题。例如,自动转录服务 Otter.ai 将音频文件转录为文本,自动识别说话人并允许标记重要单词并突出显示短语。该公司将这些信息存储在云中引起了用户的担忧。该公司表示,它已承诺保持用户数据的私密性,并实施强有力的合规控制,据 Otter.ai 高级合规经理 Julie Wu 称,”Otter 已经完成了 SOC2 Type 2 审计和报告,我们采取了技术和组织措施来保护个人数据,说话人识别是帐户绑定的。添加说话人的姓名将训练 Otter 识别您记录或导入帐户中的未来对话的说话人,但不允许跨帐户识别说话人。”
API 加速了 GPT 的使用
ChatGPT 的受欢迎程度让许多公司感到意外。根据一年前公布的最新数据,超过 300 名开发人员正在使用 GPT-3 为其应用程序提供支持。例如,社交媒体公司 Snap 和购物平台 Instacart 和 Shopify 都通过 API 使用 ChatGPT,为其移动应用程序添加聊天功能。
根据与公司客户的对话访谈,预计向生成式 AI 应用程序的转变只会加速,用于从生成备忘录和演示文稿到分类安全事件以及与患者互动的所有事情。
正如目前所看到的,一位企业雇主说,” 看看现在,作为权宜之计,我只是阻止了这个应用程序,但我的董事会已经告诉我,我们不能那样做。因为这些工具将帮助我们的用户提高生产力——具有竞争优势——如果我的竞争对手正在使用这些生成式人工智能应用程序,而我不允许我的用户使用它,这将使我们处于劣势。”
好消息是,对员工安全意识的教育可能会对特定公司的数据是否泄露产生重大影响,因为少数员工负责大多数风险请求。不到 1% 的员工负责 80% 的向 ChatGPT 发送敏感数据的事件。
” 你知道,有两种形式的教育:一种是课堂教育,比如当你让员工入职时。然后是上下文教育,当有人实际上试图粘贴数据时 “,这两者都很重要,但从实际效果来看后者更有效。
此外,OpenAI 和其他公司正在努力限制 LLM 对个人信息和敏感数据的访问:当你向 ChatGPT 询问个人详细信息或敏感的公司信息时,ChatGPT 目前会明确声明拒绝回答。
例如,当被问及 ” 苹果 2023 年的战略是什么?ChatGPT 回应说:” 作为一个人工智能语言模型,我无法访问苹果的机密信息或未来的计划。苹果是一家高度保密的公司,他们通常不会向公众披露他们的战略或未来计划,直到他们准备好发布它们。”
人工智能固有的偏见
人工智能中还存在固有偏见的问题。平等就业机会委员会专注于这个问题,因为该机构与其执行的就业歧视法有关。此外,美国的州和地方立法者正在提议——有些已经通过了——限制雇主使用人工智能的法律。
人工智能提供的信息必然取决于训练它所依据的信息,以及那些决定人工智能接收哪些信息的人。这种偏见可能表现在 ChatGPT 提供的信息类型中,以回答与其 ” 对话 ” 中提出的问题。
此外,如果在就业决策咨询场景使用 ChatGPT,这可能会导致歧视索赔。根据州和地方法律,在某些就业决定和 / 或审计中使用人工智能需要事先通知,然后才能在某些就业环境中使用人工智能,这也可能造成合规问题。
由于人工智能存在偏见的风险,雇主应在其政策中包括一项一般性禁止在未经法律部门批准的情况下在就业决策中使用人工智能。
泄露隐私和违反保密条款
机密性和数据隐私是雇主在考虑员工如何在工作中使用 ChatGPT 时考虑的其他问题。员工在与 ChatGPT 进行 ” 对话 ” 时可能会共享专有、机密或商业机密信息。尽管 ChatGPT 表示它不会保留对话中提供的信息,但它确实从每次对话中进行 ” 学习 “。当然,用户正在通过互联网在与 ChatGPT 的对话中输入信息,并且无法保证此类通信的安全性。
如果员工向 ChatGPT 透露敏感信息,雇主的机密信息可能会受到影响。谨慎的雇主将在员工保密协议和政策中禁止员工在人工智能聊天机器人或语言模型(如 ChatGPT)中引用或输入机密、专有或商业秘密信息。
一个很好的论点是,在线提供给聊天机器人的信息不一定是商业秘密的披露。另一方面,由于 ChatGPT 接受了大量在线信息的训练,员工可能会从该工具接收和使用商标、版权或其他个人或实体的知识产权的信息,从而给雇主带来法律风险。
雇主应关注的其他问题
除了这些法律问题之外,雇主还应考虑他们在多大程度上允许员工在工作中使用 ChatGPT。雇主正处于考虑是否以及如何在其工作场所接受或限制使用 ChatGPT 的重要十字路口。
雇主应该权衡员工使用 ChatGPT 执行诸如撰写常规信件和电子邮件、生成简报和创建演示文稿等任务可以实现的效率和经济性,以及员工自己执行此类任务的潜在发展机会损失。
ChatGPT 不会消失,新的和改进的版本应该在一年内推出。雇主最终需要解决其在工作场所的使用问题,因为下一次迭代会更好。对于 ChatGPT 可能带来的所有风险,雇主也可以利用其优势。讨论才刚刚开始。雇主可能会对此进行一些学习和 beta 测试,ChatGPT 也是如此。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!