ChatGPT回归意大利,AI法律障碍下的数据保护与信息真相?
文章主题:ChatGPT, GDPR, AI监管
站长之家5月8日消息:OpenAI 此前成功安抚了意大利数据机构,解除了该国对 ChatGPT 的禁令,但其在与欧洲监管机构的斗争仍远未结束。
🎉 ChatGPT 复活记 🤖 最近,备受瞩目的 AI 聊天机器人 ChatGPT 遭遇了一次法律上的挑战,在意大利引起了轩然大波。然而,聪明的团队 @OpenAI 立刻行动,通过合规调整成功地扫清了障碍。于 4 月 28 日,ChatGPT 如约回归,悄无声息地解决了 GPDP(意大利数据保护机构)的顾虑,展示了其强大的适应力和灵活性。这次看似简单的胜利背后,是技术与法规的巧妙平衡,也让全球用户再次见证了 OpenAI 的专业实力。欧盟的数据安全,OpenAI 用心守护!🌟
GPDP对ChatGPT带来的创新表示赞赏,然而,它所引发的法律挑战和行业问题正逐渐浮出水面。全球各地的监管机构正密切关注AI聊天机器人如何处理信息,从数据采集违规到误导性内容的传播,每个环节都可能成为争议焦点。特别是在欧盟,GDPR以其严苛著称,其影响力远超欧洲,对类似ChatGPT的系统构成了潜在威胁。同时,欧盟正在酝酿一部专门针对AI的新法,这无疑将为这一领域带来深远的法规变革,引领未来AI发展的法律潮流。
极简版:ChatGPT因其潜在问题备受争议,如误导信息、版权不明及数据安全挑战,尽管它作为AI生成工具的代表广受欢迎,2022年11月迅速跃升至月活跃用户亿级别,成为增长最快的消费者应用之一(OpenAI未证实此数据)。使用者用它进行多语言翻译、创作和代码生成,然而其可靠性与隐私保护遭质疑。
意大利作为全球领先的AI合规先驱,于3月31日对OpenAI的违规行为发出了严厉警告。他们指出ChatGPT存在四大潜在违规点:违规提供不实或误导性内容、未经告知的数据采集操作、未遵循GDPR中的六种合法处理理由以及未能有效保护13岁以下用户。GDPR已要求OpenAI立即停止在ChatGPT训练数据中收集的个人隐私信息,以确保数据安全与合规。此举措不仅体现了对用户权益的尊重,也是AI行业迈向透明与负责任的重要一步。🌟
在全球范围内,ChatGPT的使用已开始引发关注。尽管目前其他国家尚未采取实质性行动,但欧盟内的德国、法国和西班牙已相继展开了对其功能的审查,自3月以来的动作尤为明显。加拿大也正通过PIPEDA这一法规来评估潜在的隐私风险。值得注意的是,欧洲数据保护委员会(EDPB)已经成立了专门的工作小组,以协助各国之间的协调调查行动。若这些监管机构对OpenAI提出修正要求,可能会对其全球服务运营产生深远影响。
🌟监管焦点聚焦两大关键领域🔍 – ChatGPT数据来源深究与OpenAI如何透明传递资讯💡。ChatGPT的数据之旅,其数据采集的合规性及多样性是首要关注,确保AI学习的广度与质量。另一方面,OpenAI的服务指南,信息更新的及时性和准确性亦至关重要,以维护用户对其知识的信任和依赖。这两点都是监管机构衡量技术巨头责任与透明度的重要指标,也是保障公众利益的关键所在。
ChatGPT 使用的是 OpenAI 的 GPT-3.5 和 GPT-4 大型语言模型(LLM),这些模型基于大量的人类产生的文本进行训练。OpenAI 对使用的具体训练文本持保密态度,但表示其依靠「各种许可,创造和公开可用的数据来源,其中可能包括公开可用的个人信息。」
这可能会在 GDPR 下带来巨大的问题。该法律于 2018 年颁布,覆盖从欧盟公民那里收集或处理数据的所有服务,无论负责该服务的组织所在何处。GDPR 规定,公司在收集个人数据之前必须取得明确同意,并为收集数据提供法律合理性,并透明地说明如何使用和存储数据。
欧洲监管机构声称,围绕 OpenAI 训练数据的保密性意味着无法确认进入其中的个人信息是否最初是在用户同意的情况下提供的,GPDP 特别指出,OpenAI 一开始就「没有法律依据」收集这些信息。到目前为止,OpenAI 和其他公司几乎没有受到审查,但这一说法给未来的数据抓取工作增加了一个大问题。
此外,GDPR 的「被遗忘权」允许用户要求公司纠正其个人信息或完全删除它。OpenAI 预先更新了其隐私政策以促进这些要求,但在将特定数据分离成这些大型语言模型后,处理它们可能非常复杂,这引发了争议。OpenAI 还直接从用户处收集信息。与任何互联网平台一样,它收集各种标准用户数据(例如姓名,联系信息,银行卡详细信息等)。但是,更重要的是,它记录用户与 ChatGPT 的交互。正如 FAQ 中所述,该数据可以由 OpenAI 的员工进行审核,并用于训练其模型的未来版本。考虑到人们使用 ChatGPT 提问的亲密问题——将机器人当作治疗师或医生使用——这意味着该公司正在收集各种敏感数据。
至少有一些数据可能是从未成年人那里收集的,因为 OpenAI 的政策规定「不会故意从 13 岁以下的儿童那里收集个人信息」,但没有严格的年龄确认门槛。对于不允许从 13 岁以下的人那里收集数据,并且(在某些国家)要求 16 岁以下的未成年人获得父母同意的欧盟规定来说,这并不是好的政策。在担忧 ChatGPT 的未成年人筛选问题方面,GPDP 声称,ChatGPT 缺乏年龄过滤,会暴露未成年人接触「完全不适合其成长和自我意识水平」的回答。OpenAI 在使用这些数据方面拥有广泛的自由度,这让一些监管机构感到担忧,存储数据也存在安全风险。像三星和 JPMorgan 这样的公司已经禁止员工使用生成 AI 工具,因为他们担心员工会上传敏感数据。实际上,在 ChatGPT 遭受严重数据泄露,暴露用户的聊天记录和电子邮件地址后,意大利宣布禁用该应用。
ChatGPT 提供错误信息的倾向也可能会带来问题。GDPR 法规规定所有个人数据必须准确无误,这一点在 GPDP 的声明中得到强调。这可能会对大多数 AI 文本生成器造成困扰,因为它们容易出现「幻觉」:即对问题作出事实不正确或不相关的回答。在其他地方已经看到这种现象带来一些真实的后果,澳大利亚一个地区的市长因 ChatGPT 错误地声称他因贪污入狱而威胁起诉 OpenAI 诽谤他。ChatGPT 的广泛应用和目前在 AI 市场上的主导地位使其成为一个特别有吸引力的目标,但它的竞争对手和合作伙伴,如拥有 Bard 的谷歌或 OpenAI 的 Azure AI,也可能面临审查。在 ChatGPT 之前,意大利还禁止了聊天机器人平台 Replika 收集未成年人信息,至今仍然被禁用。虽然 GDPR 是一套强大的法律,但它并不是为解决 AI 特定问题而制定的。然而,一些可以解决这些问题的规定可能已经在视野范围内。
2021 年,欧盟提交了第一份《人工智能法》(AIA)的草案,这部立法将与 GDPR 一起制定。该法案根据人们对 AI 工具的风险评估对其进行管理,从「最小」(例如垃圾邮件过滤器)到「高」(用于执法或教育的 AI 工具)或「不可接受」,并因此被禁用(如社会信用体系)。在去年出现像 ChatGPT 这样的大型语言模型的激增之后,立法者现在正在赶快增加「基础模型」和「通用人工智能系统(GPAIs)」的规则——这是指包括 LLMs 在内的大规模 AI 系统——并有可能把它们归为「高风险」服务。
AIA 的规定不仅超出了数据保护的范畴。最近提出的一项修正案将强制公司披露用于开发生成 AI 工具的任何版权材料。这可能会暴露曾经的机密数据集,使更多的公司容易受到侵权诉讼的攻击,而这已经打击了一些服务。
专门制定 AI 法规的法律可能要等到 2024 年才会在欧洲生效,但达成该法律可能需要一段时间。欧盟立法者于 4 月 27 日就 AI 法案达成了临时协议。委员会将在 5 月 11 日对草案进行投票,最终提案预计在 6 月中旬公布。然后,欧洲理事会、议会和委员会将不得不解决任何悬而未决的争议,然后才能实施该法律。如果一切顺利,它可能会在 2024 年下半年被采纳。
目前,意大利和 OpenAI 的争议提供了一个早期的案例,展示了监管机构和 AI 公司如何进行谈判。如果 OpenAI 在 9 月 30 日之前无法创建一个更严格的年龄门槛以防止 13 岁以下的未成年人进入,并要求年龄在 13 岁以上的未成年人获得父母的同意,那么它可能会再次被封锁。但这提供了一个示范,说明欧洲认为什么是一个合适的 AI 公司行为——至少在新法规发布之前是这样。

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!