科技革命前夕的人工智能监管:提前思考与商定
文章主题:科技, 人工智能, 数据安全, 隐私保护
■ 专栏
在科技即将带来生产力革命的前夜,提前思索、讨论和商定包容审慎监管的细节,远比亡羊补牢更好。
近期,意大利政府发布了一项严格的措施,明令禁止使用ChatGPT,并对OpenAI处理意大利用户信息的行为进行了限制。此外,个人数据保护局已经开始对之前ChatGPT的应用进行深入调查。这一举动使得以ChatGPT为代表的人工智能大模型尚未完全普及应用,便遭遇了来自数据安全方面的质疑。
海量数据的累积推动了人工智能的生产力提升,与此同时,自互联网诞生以来便一直存在的安全与隐私问题,已成为人工智能大模型难以避免的挑战。
欧洲的个人数据保护走在前列
从历史来看,ChatGPT在欧洲率先遭遇数据安全的质疑几乎是必然。
自进入互联网时代以来,欧洲在个人数据保护方面就始终走在全球前列,相关监管堪称全球最早最严。
自1981年起,欧洲议会便成为了全球首个实施个人数据保护条例的机构。自此以后,相关法规始终紧随科技发展步伐,甚至在某些方面甚至走在前沿。如在1995年,欧盟针对个人数据隐私及跨境流动问题进行了新的立法,那时互联网革命尚处于起步阶段。
在当今时代,有关个人数据保护的观念,通常在欧洲地区先被提出。如数据的信息披露权限、数据遗失权以及数据携带权等概念。因此,意大利借鉴了全球最为严谨的数据保护法规,对正处于试验阶段的ChatGPT实施了封锁,这一举措既出其不意,又合乎情理。
客观地评估一下, ChatGPT 在数据隐私、合规性和伦理等方面目前仍处于探索阶段。随着用户的持续使用和提供的数据,该模型将不断得到优化和改进。
由于仍处于黑盒测试阶段,数据的真实来源、用户的隐私保护以及黑盒中数据与知识产权的冲突等问题,都为法律和监管领域带来了全新的挑战。鉴于这些问题的重要性,谨慎的欧洲选择了实施全面的封杀策略。
安全与创新之间的平衡挑战
在人工智能大规模进入公共领域之后,如何保障数据授权、明确数据安全责任的划分以及科技公司应尽的义务,防止隐私泄露和知识产权等问题,将成为亟待解决的关键问题。
但与此同时,意大利这种一刀切的政策也并不值得鼓励。
在过去的岁月里,一些过于严格和单一的监管策略曾对欧洲在互联网时代的发展产生了负面影响。时至今日,当人们探讨欧洲为何未能抓住移动互联网时代的机遇时,这些过于苛刻且缺乏弹性的监管政策仍被认为是关键因素之一。
在2016年,欧盟成功推行了最为严苛的个人数据保护法规,这使得全球科技企业在欧洲市场遭遇了一场关于数据隐私的激烈辩论。
2019年,美国信息技术和创新基金会下属的数据创新中心曾发布报告指出,欧盟的数据保护条例并未产生预期的积极效果,反而增加了企业的数据合规成本、损害科技公司创新和竞争力,同时增加了消费者获取在线服务的成本和不信任感。
回到人工智能领域,在全球大赛跑的背景下,既要提前设定红线和规则以保护公民数据安全,同时,又要防止监管过度带来的创新不足问题,这是各国共同面对的政策难题,需要不断寻找两者之间的平衡。
唯一可以确定的是,从人类近百年来科技创新与伦理冲突的经验来看,在科技即将带来生产力革命的前夜,提前思索、讨论和商定包容审慎监管的细节,远比亡羊补牢更好。
□马尔文(互联网从业者)
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!