ChatGPT来袭:人工智能聊天机器人版权风险与未来应用的挑战?
文章主题:关键词: ChatGPT, 人工智能, 知识产权风险, 生成式AI
🎉🚀随着科技的进步,我们正步入一个全新的Web3.0纪元,其中大数据与人工智能的力量正在重塑全球经济版图。最近,全球瞩目的焦点之一就是来自美国OpenAI的创新之作——超凡智慧型ChatGPT,它以卓越的人工智能聊天技术引领了行业风潮。这款革命性的工具不仅颠覆了传统的交流模式,更开启了无限可能,为各领域带来了前所未有的变革。🌍💻
🌟【国家智略】🌟2017年,中央与国务院联手发布的重要文件——《新一代人工智能发展规划》明确提出,我们既要积极推动AI的革新,也要警惕其潜在的安全挑战。为此,我们需要未雨绸缪,通过前瞻性的策略和引导,来有效管控风险,确保AI的发展既稳健又可控。让智能科技为社会进步保驾护航,安全、可靠、走在正确的轨道上!🌍💻
🌟ChatGPT引领潮流,知识产权挑战浮现🌟🔥ChatGPT以其超凡的模拟人类逻辑能力,创造出的文字仿佛出自人类之手,版权归属问题和使用权限的模糊边缘,对现行法律构成严峻考验。💡🔍强人工智能的发展离不开海量数据,但数据背后的权利纷争——原始创作者的版权与商标权,为这一领域带来了复杂性。🚀探讨ChatGPT引发的知识产权风险,不仅关乎技术的进步,更是对现有法律框架的一次深度审视。📝欲知如何在智能时代保护创作权益?让我们深入探讨,一起迎接挑战,让创新在规则下熠熠生辉!🌐
ChatGPT对当前人工智能的突破
🌟ChatGPT引领AI新纪元,人性表达不再是梦!🚀以往的人工智能虽积极探索”人性化”,但始终未能跨越那道鸿沟。像微软小冰的绘画才情和Siri的语音智慧,虽然令人赞叹,却难以触及人类思维深处。这一度被视为未来的愿景,如今ChatGPT正以实际行动颠覆这一设想,将人工智能推向前所未有的高度——类人性表达不再是遥不可及的理想。🎨📝💼ChatGPT的强大功能,如创作文学、起草法律文件和深度案例分析,无疑证明了生成式AI已从技术层面跃升至应用层面,开始填补人类高难度工作的空白。它的通用性、智能性和逻辑性三大优势,让现有AI望尘莫及,展现出前所未有的实力。🚀💻🏆ChatGPT的出现,标志着人工智能正以前所未有的速度向着更贴近人性的方向进化,为我们的生活和工作带来了革命性的改变。让我们期待这个AI新时代的到来,共同见证科技与智慧的璀璨交汇!🌟
ChatGPT具有通用人工智能大模型的特征
🌟ChatGPT的出现,标志着人工智能领域的重大飞跃——它不仅打破了传统小语言模型的局限,迈向了全能型”大模型”的新阶段!🌍这款先进的技术已能轻松应对法学、计算机科学、文学乃至经济学等多领域的问题,其广泛适用性和深度知识库,让学习和交流变得更加高效与多元化。📚💻🌟SEO优化提示:使用长尾关键词如”人工智能大突破”、”全能型模型应用”,并融入行业术语以提升搜索引擎排名。
🌟人工智能的进步正逐步拉近它与人类决策的相似度,相较于单一功能的AlphaGo,全能型的ChatGPT已不再是单纯的技能强化工具。它的场景适应性使其展现出顾问般的亲和力,不仅在外形上,更像一个无形的助手,随时待命提供帮助。SEO优化提示:#人工智能# #ChatGPT# #决策模拟# #顾问角色
另一方面,通用性也标志着人工智能技术逐步走向普适化、平民化应用。统计公司Similarweb数据显示,2023年1月ChatGPT单日平均独立访客数量已达1300万人次,而至2月初,单日用户访问量已达2500万人次。在以往的小模型阶段,人工智能的开发主要是为了解决特定领域的专业难题,因此在多数情况下只有特定行业的专业人员能够接触、使用AI。通用性人工智能的出现,使AI的应用正式从小范围特定人群走向普罗大众,与此同时也将潜在风险向社会层面扩散。
ChatGPT具有高度智能化的特征
OpenAI官网内容显示,ChatGPT的创新之处在于采用了RLHF(基于人类反馈的强化学习)人工智能训练方法,该训练方法使得ChatGPT具有与以往人工智能不同的高度智能化特征。这一训练过程包含3个阶段,首先是监督学习阶段,相比起AI无监督自我学习,监督学习需要专业人员对ChatGPT待解决的问题进行人工数据标注,为ChatGPT人工书写高质量的答案。其次是训练奖励模型阶段,专业人员通过建立奖励模型的方式对ChatGPT输出的不同答案进行打分,促使ChatGPT输出高分答案。最后是强化学习阶段,运用PPO算法不断强化ChatGPT的能力。
RLHF训练方法极大地提升了ChatGPT的智能性,强化了生成式AI的功能,这一提升主要体现在以下两个方面。其一,ChatGPT能够基于人类反馈模仿人类的表达方式和表达逻辑。以往生成式AI所输出的文本存在逻辑性较差、语序混乱、表达生硬以及情感缺失等问题,与人类的表达方式相去甚远,因此无法被用户直接使用。而ChatGPT能够学习、模仿人类的表达方式,输出逻辑更严密、表达更健全的文本内容,因此可以在不经用户改写或少量改写的情况下直接使用。其二,ChatGPT能够精准识别用户指令,输出与用户需求高度匹配的答案。ChatGPT与之前的模型相比,其对话生成实现了从命令驱动到意图驱动的转换。ChatGPT在与用户交流的过程中,用户无需输入繁琐的要求和指令,仅需用日常语言输入简单的想法,ChatGPT即可“心领神会”,完成用户所指定的任务。此种对用户需求精准识别的能力能够有效降低AI产品的使用门槛,但同时也加剧了AI异化为违法犯罪工具的风险。
ChatGPT具有记忆性
ChatGPT与当前人工智能相比另一个重要突破就是能够记住与用户交流的内容,并具有在前期对话的基础上与用户进行持续交流的功能。使用者表示,ChatGPT能够根据用户的后续指令进一步修正自己先前输出的答案,也能够质疑不正当的提问。记忆性特征使ChatGPT的运用变得更加灵活多样,用户所获得的答案并非一次性的,即使ChatGPT初次生成的内容与用户需求还存在一定的距离,用户也无需亲自进行人工修改,而是可以逐步引导其增加、删减部分内容。
ChatGPT所涉知识产权风险的应对
人类技术发展史表明,新技术一旦在人类社会广泛应用,将不可避免地引发全新的法律风险。互联网的普及引起了法学界对网络暴力、通信信息诈骗、数据侵权、虚拟财产犯罪等风险的警惕与慎思,相应的,以ChatGPT为代表的通用性、高智能性、记忆性人工智能的广泛应用,也会对既有法律体系与法学理论提出全新的挑战。作为文本生成式AI,目前ChatGPT尚不具有生成图像、音视频以及联通多用户交流的能力,因此其被利用成为智能化犯罪工具的可能性尚处于较低水平,现阶段ChatGPT在法学领域引起的冲击更多地集中于知识产权领域,包含在数据源获取与内容生成两个运行阶段之中。
在数据源获取阶段,人工智能对数据集的使用可能涉及对原始作品权利人的侵权风险。在内容生成阶段,ChatGPT将进一步引起人们对AI主体地位、AI生成物法律权属问题的反思。
ChatGPT在数据源获取阶段的侵权风险
算法、算力、数据是人工智能开发的三大要素。ChatGPT的通用性、高智能性、记忆性除基于其特殊的训练方法外,更源于其所拥有的海量数据集。据统计,ChatGPT背后所拥有的参数高达1750亿个,远超现有的其他生成式AI。根据国外人工智能学者Alan D.Thompson的研究,ChatGPT的数据源包含维基百科、书籍、期刊、Reddit链接、Common Crawl等。ChatGPT是通过学习互联网上的现有数据,并在此基础上加工整理形成答案的,而社交网站、书籍、网页数据无不包含着大量原始创作者的作品,这一过程并未经过版权人许可,可能构成对原始作品权利人的侵权。
这一问题在实践中已经出现,在Andersen et al v Stability案中,以Andersen为代表的3位艺术家对一款AI绘图工具提起集体诉讼,认为AI公司在未经许可的情况下将多位艺术家所创作的50亿张网络图片用于AI机器学习,其行为侵犯了艺术家们的权利。与此相近的是,意大利个人数据保护局取缔了一款名为“Replika”的人工智能聊天机器人,认为其非法收集、使用原始数据。该案虽然并非知识产权侵权,但也同样表明目前AI抓取、使用数据可能侵犯原始数据源之上的各种权利。
对于数据源获取阶段的知识产权侵权风险,笔者认为,在解释论上应适度扩张合理使用制度的范围,以使其能够适用于AI抓取公开数据的情形。
其一,数据抓取、分析是开发人工智能程序的必要条件,未来强人工智能的进一步发展更需要海量的数据源支撑。相关研究表明,人工智能大模型的训练至少需要62亿的参数量。此时要求开发者获取全部产权人的许可并不现实,知识产权法领域若不能弱化该风险,将阻碍人工智能的技术创新。
其二,AI开发者利用数据集的行为具有合理使用的外观。AI及其开发者使用数据集的行为包含复制导入数据和AI学习分析数据两个过程,而知识产权法之所以对复制行为进行规制,是因为在传统的出版领域复制与发行具有密切相关性,控制复制行为能够有效阻止其后的发行行为。而现代计算机技术的出现使复制行为和传播行为发生分离,单纯复制行为的规制必要性大大降低,多数个人复制行为都被纳入合理使用制度的框架,互联网传播行为成为法律规制的重点。而人工智能对数据源的使用恰恰具有单纯复制行为的特征,开发者所使用的数据源都是从互联网上已公开的内容中抓取的,其获取行为不具有非法性,而且开发者利用数据训练人工智能,AI生成物在多数情况下不会复现原作品的内容。
ChatGPT在内容生成阶段的权属争议风险
如前所述,ChatGPT具有通用性、智能性及强大的人类模仿能力,这使得其生成物具有与以往人工智能生成物相比更高的价值。而且ChatGPT已经在社会层面得以普及,除部分IP受限制的国家和地区外,普通民众也能直接注册、使用ChatGPT。上述两点使AI生成物的权属问题更实际地摆在了知识产权法理论面前,如果说之前法学界对AI生成物权属的探讨是前瞻性的,那么现在的探讨无疑具有现实性。
现有司法实践对AI生成物权属的判断主要包含以下3个层面。一是从作品的角度入手,探讨AI生成物是否符合著作权法理论中作品的含义。二是从创作行为的角度入手,探讨AI的创作过程是否具有“独创性”。三是根据智力成果的投入,确定作品应归属于开发者还是用户。持肯定态度的观点认为,AI生成物在外观上具有独创性,并且能够体现创造者的个性化选择、技巧、判断等因素。持否定态度的观点强调作品必须是人的智力成果,创作行为也必须是人的智力活动,AI生成物缺乏人的智力参与,没有传递软件使用者的思想,不能被认定为作品。
事实上,从“独创性”“作品”角度探讨人工智能生成物的权利归属问题不具有现实意义,因为AI生成物和人类作品的核心差异并不在于作品外观上是否具有独创性特征,而在于是否由人所完成。正如华东政法大学王迁教授所言,“只有当源自人类的相同内容属于作品时,才有必要讨论由人工智能生成的内容能否被认定为作品。”AI生成物的权属问题在根本上要解决的是AI所输出的内容是否具有赋予其法律保护的必要性,或者说,AI生成物如果不受法律保护而成为人人可随意使用的内容,是否会导致学术不端、抄袭泛滥?
笔者认为,在现阶段有必要对AI生成物进行法律保护。一是因为当前AI生成物已经超出了对既有材料简单复制、加工、改写的阶段,ChatGPT的高智能使其能够输出自身的观点,并且很难在互联网上检索到与输出文本相似的内容,换言之,ChatGPT将AI生成物的独创性推到了一个前所未有的高度。二是由于AI生成物的随意使用可能诱发学术不端。因此,在以ChatGPT为代表的具有一定程度独立意识的高智能AI出现后,法律有必要对其生成物进行保护,以最大可能防止AI在学术科研中的滥用。
需要明确的是,对AI生成物进行法律保护并不意味着需要承认人工智能的权利主体地位。而应当采用行为规制的方法,从限制用户对AI生成物的使用范围出发,一方面利用行业自治规则等软法要求使用者在作品创作中明确披露其对AI的使用情况,在排除AI生成内容后对作品的创新性、实用性进行重新评估,根据作者自身创作的部分来判断作品质量。另一方面也要强化技术治理的作用,加大反AI检测技术的运用,提升人类对AI作品的识别能力,积极利用技术手段监管、反制技术所引起的风险。
*本文刊载于《通信世界》
总第916期 2023年3月25日 第6期
原文标题:《人工智能聊天机器人的知识产权风险及应对以ChatGPT为切入点》
END
作者:南京师范大学法学院 欧阳心仪
责编/版式:甄清岚
审核:舒文琼
监制:刘启诚
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!