ChatGPT监管风暴:全球隐私风暴下的AI未来,我们该如何应对?

学会提问 3年前 (2023) lida
68 0 0

文章主题:数据隐私, ChatGPT, AI监管

666ChatGPT办公新姿势,助力做AI时代先行者!

因强大功能而爆红的ChatGPT正因数据隐私和安全风险在全球掀起一场监管风暴。

🎉🚀 欧洲多国迅速行动!意大利、德国、法国和爱尔兰等8个国家近期已采取措施应对潜在AI诽谤挑战,这场人工智能领域的法律先例备受关注。马斯克的呼吁引发了全球范围内的热烈反响,他的暂停训练倡议获得众多支持者,签名人数已经超过1.8万大关!🔥🔥 #AI诽谤 #全球法律里程碑

意大利监管机构的决策背后蕴含着对AI未来发展的深度思考,他们关注的是如何在科技进步与道德伦理之间找到平衡。关于AI是否具备意识的问题,科学界至今仍存在争议。正如爱尔兰数据保护委员会专家所指出,这一复杂议题需要深入探讨和法律规范。而中国人民大学高瓴人工智能学院的卢志武教授,他也从技术与哲学的角度给出了独到见解。他认为,虽然AI的进步令人惊叹,但我们必须谨慎对待其可能带来的伦理挑战。在这样的背景下,《每日经济新闻》对这些关键问题进行了深度解析,以期引发公众对于这一前沿科技话题的深入讨论。

ChatGPT监管风暴:全球隐私风暴下的AI未来,我们该如何应对?

人工智能的未来,充满巨大想象空间。图为第六届世界智能大会上,参会嘉宾在参观展览 新华社图

8国“围剿”ChatGPT

因强大功能而爆红的ChatGPT正因数据隐私和安全风险在全球掀起一场监管风暴。

🔥 ChatGPT的欧洲之旅正遭遇严峻挑战:各国政府纷纷加入禁用行列,意大利已拔头筹,德国紧跟其后,法国、爱尔兰、西班牙等欧盟国家的监管机构也表达了潜在限制的态度。加拿大的隐私局对OpenAI发起了调查,而美国也在积极讨论强化AI法规的可能性。这一举动源于ChatGPT生成内容的不准确性引发的法律风险,澳大利亚甚至可能成为全球首例因其虚假信息而导致的诽谤诉讼地。🔥

🚀🚀🚀 科技巨头集结号!马斯克、图灵奖得主本吉奥等1000+行业巨擘联手发声,紧急呼吁全球AI研究者暂停研发超越🔥 GPT-4的尖端技术至少6个月。这一倡议迅速引发了广泛关注,公开信签名人数已破万大关,达到惊人的18,000+!这不仅是科技界的一次集体行动,更是对人工智能伦理与安全的深度考量。我们期待看到一个更稳健、智慧的未来,共同守护AI的稳健发展🌍🌍🌍

🌟👀意大利监管动态揭秘!🔍欧盟数据守护者齐心协力,ChatGPT事件下,我们与所有关键数据伙伴紧密合作,关注每一步行动背后的深意。🌍欧盟数据法规的严谨,爱尔兰DPC的专业立场,都在为保护用户隐私提供强大支持。🛡️让我们共同期待透明度的提升,为未来数字世界筑起坚实的防线。🌟

意大利对ChatGPT的限制举措引发了全球范围内的监管忧虑潮,德国监管层已表明有意效仿,正积极评估暂停使用ChatGPT的可能性。紧接着,法、爱、西等欧盟成员国的数据保护机构纷纷跟进,表达了对此类人工智能技术潜在风险的关注。这股监管风暴不仅针对OpenAI,也对全球科技行业的合规性提出了新挑战。欧洲各国的谨慎行动,无疑将为未来的数据安全和隐私保护议题增添更多深思。

OpenAI面临的压力可谓与日俱增。除欧洲外,加拿大方面已经采取行动,其隐私监管机构宣布因数据违规问题对OpenAI展开调查。而在美国,拜登也会见了科技顾问,讨论AI带来的风险和机遇,并表示将加强监管。

为了打消疑虑和担忧,OpenAI也在积极行动。当地时间4月5日晚,OpenAI CEO萨姆·阿尔特曼表示将于次日向意大利数据保护局提交相应措施。意大利数据保护局表示将评估OpenAI的方案,该机构同时强调,他们无意阻碍人工智能技术的发展。同日,OpenAI还在官网发布了题为《我们保障AI安全的方法》的文章,介绍了该公司为保障安全性在六个方面进行的部署。

但在隐私和数据安全之外,ChatGPT生成错误事实的“幻觉”问题也开始在现实世界中掀起波澜。

据路透社4月5日报道,澳大利亚赫本郡市长布赖恩·胡德(Brian Hood)称在ChatGPT生成的内容里,自己因贿赂东南亚官员而被判处30个月监禁,这与事实完全不符,但“其中有些段落却是绝对精确的,包括数字、姓名、日期、地点等”。

胡德表示,如果OpenAI不纠正ChatGPT关于其曾因贿赂入狱服刑的虚假说法,他可能会起诉OpenAI,这将是针对生成式AI的第一起诽谤诉讼。

对于意大利暂时封禁ChatGPT的做法,中国人民大学高瓴人工智能学院教授、首个中文通用多模态预训练模型“文澜BriVL”的主要设计者卢志武认为这并不明智。

“一个新技术总会有好的和不好的方面,不能说因为有不好的地方就把它禁掉。汽车会造成车祸,难道就因此把汽车禁掉吗?欧洲本来在AI方面就落后于美国,与中国也有差距,禁掉之后不是会更差么?”他对《每日经济新闻》记者解释称。

“像隐私问题和AI生成内容以假乱真的问题,可以通过法律手段去约束AI模型,这样研发者在训练模型时就会规避这些风险。”卢志武进一步说道。

此外,法律还可以规定使用者必须对AI生成的图片和视频等内容进行标注,假如国家法律部门检测到未标注的生成内容,可以采取惩罚措施。“特别是新闻相关的内容,一定不能是AI生成的,否则就乱套了,成为了假新闻。”卢志武表示。

卢志武认为,AI法律完善的目标就是让AI的开发者和使用者都“心里有数”,但对于新生事物的法律监管有滞后性,这在AI上也不例外。

针对AI生成内容的事实错误问题,卢志武认为可以通过工程手段解决,比如先利用搜索引擎去搜索互联网上的档案性内容,然后再利用这些内容生成答案,这样能在很大程度上消除事实性错误。

自我迭代更可怕?

数据安全和错误内容是生成式AI带来的紧迫而现实的问题,但尚可以通过技术和法律手段加以规避。随着AI技术的飞速发展,人类可能面临从未遇到过的新威胁。

近日,马斯克、图灵奖得主本吉奥等1000余名科技大佬发表联名公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。公开信指出,AI最终可能超越人类,使人类失去对文明的掌控能力。截至发稿,这份公开信的签名人数已经超18000人。

卢志武对《每日经济新闻》记者称,这份公开信的目的是呼吁大家重视大语言模型的安全性,但实际上没有操作性,因为没有相应的全球权威机构出面来暂停大型AI模型的实验。

在ChatGPT展现出强大的对话能力时,人类也越来越担心:会不会AI系统在迅速进化的过程中“涌现”出自我意识?

“未来有没有我不敢说,但至少从GPT-4来看,它是不会产生意识的。”卢志武对记者表示。“但我们开发AI的终极目标是实现AGI(通用人工智能),就是让AI模型表现得像人一样。如果要达到这个目标,那么这个过程中真的有可能失控。”

在卢志武看来,所谓的失控并不是AI出现意识,而是AI学会了自我迭代。“AI模型自己不停地学习,甚至创造出新的东西来,而这个过程又在人类的监控之外。这种自我学习是非常容易实现的,我觉得这才是AI最大的威胁。”

近日,研究人员Noah Shinn和Ashwin Gopinath在预印本网站arxiv提交论文称,通过引入“反思”技术,GPT-4在多项高难度测试中的表现提升了30%。据悉,这种技术让AI系统模仿人类的自我反思,并评估自己的表现,“GPT-4在完成各种测试的时候,会增加一些额外的步骤,让它能够自己设计测试来检查自己的答案,找出错误和不足之处,然后根据发现来修改自己的解决方案。”

卢志武认为,AI学会自我迭代所产生的后果难以具体想象,但如果一个东西在不停地变强而人类却不知道,这是“最可怕的”。未来,假如AI模型和机器人进行结合,则AI就可以产生动作,“你都不知道它是不是会拿起枪来做什么事情”。

而实际上,科学家已经在探索如何将生成式AI与机器人相结合。微软的科学家2月份发布论文称,他们正在研究利用ChatGPT来操控机器人,以实现以自然语言与机器人交互的目的,并展示了无人机和机械臂的操作案例。

ChatGPT监管风暴:全球隐私风暴下的AI未来,我们该如何应对?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

版权声明:lida 发表于 2023年4月11日 pm5:56。
转载请注明:ChatGPT监管风暴:全球隐私风暴下的AI未来,我们该如何应对? | ChatGPT资源导航

相关文章