AI诚信危机:ChatGPT引发的学术诚信探讨

ChatGPT与PPT 11个月前 lida
36 0 0

文章主题:关键词:ChatGPT软件, 教育工作者, 研究人员, 欺诈

666ChatGPT办公新姿势,助力做AI时代先行者!

出品 | 虎嗅科技组

作者 | 齐健

编辑 | 陈伊凡

头图 | 6penAI生成

1月27日,路透社消息称法国顶尖学府之一的巴黎政治学院宣布该校将禁止使用ChatGPT,对使用该软件的处罚可能会严重到被学校开除,甚至被整个法国高等教育开除。

ChatGPT软件正引发全球教育工作者和研究人员一场严重关切,这份来自巴黎政治学院的通知指出,该软件所涉及的欺诈和剽窃问题不容忽视。在此背景下,学院强调,除非是为了特定课程目的,否则学生不应在使用该软件时依赖其制作书面作品或演示文稿。这一规定旨在维护学术诚信,确保研究和学习活动的公正性。

巴黎政治学院并不是第一所宣布禁用ChatGPT的学校。ChatGPT发布不到一个月,就引起了美国教育界的高度重视。多所美国中学及大学陆续宣布校内禁用ChatGPT,并通过减少课后作业的方式,避免学生利用家庭网络访问ChatGPT作弊。美国纽约市教育部,甚至要求全纽约市的学生和教师不要使用这款AI工具,并对下辖的教育部设备或互联网设卡,限制访问ChatGPT。

AI生成内容的伦理和法律问题,正在引发社会各界的广泛讨论与思考。

AI背后的学术隐忧

“ChatGPT很好玩,但它不是作者”,这是《Science》期刊主编Holden Thorp在1月26日发表的一篇关于人工智能的社论。Holden Thorp指出,“原创”是Science发表论文的基础,而利用ChatGPT编写文本的行为,等同于从ChatGPT中抄袭。

“我们正在更新编辑政策,要求作者不要使用ChatGPT(或任何其他人工智能工具)生成的文本、数据、图像或是图形。违反这一政策将被Science期刊视为学术不端行为,这与篡改图像或抄袭无异。”不过Holden Thorp也表示,上述规定并不包含AI论文中以研究为目的生成的数据。

国际机器学习领域的顶级会议之一——ICML(国际机器学习会议),近期也发布了一项严格的规定,禁止在会议中发表任何包含从大型语言模型(LLM,Large Language Model)生成的文本(如ChatGPT)的论文,除非是相关研究。这一举措是为了防止可能出现的意外后果和难以解决的问题。在AI学界,这样的决定并非首次,类似的限制已经出现在一些会议和研究中,反映了该领域对于大型语言模型生成文本的关注和警惕。

对于学术期刊和顶会论文来说,AI生成的内容最大的问题在于知识权属和责任确定问题。作为论文作者,研究人员无疑要对论文的观点和内容负责,而AI要如何对文章内容负责?如果AI生成的内容出现了谬误、不恰当、造假,甚至是抄袭剽窃,又该如何追责呢?

在当前的AI技术发展下,“AI作弊”现象日益严重,使得区分文章作者是人还是机器成为一项极具挑战性的任务。为此,从OpenAI官方、学术期刊出版商到普通开发者,各方都在积极探讨和研究如何有效辨别文章作者的人性化特征。

目前,OpenAI正在研发相应的AI检测工具。OpenAI客座研究员Scott Aaronson在德克萨斯大学的一次演讲中表示,他们正在通过给AI生成内容打“水印”来打击作弊。这项技术将通过调整ChatGPT生成单词的规则,在生成内容的特定位置制造“伪随机”的特定单词,读者很难察觉,但就如同密电码一样,“握有密钥”的人就轻易判断这篇内容是否是ChatGPT生成的了。

《自然》杂志的出版商Springer Nature同样致力于研发能够识别LLM技术的作品。最近,一位来自普林斯顿大学的22岁华裔学生Edward Tian成功设计出一款名为GPTZero的应用程序,旨在找出ChatGPT存在的瑕疵。这款应用利用了“困惑性(Perplexity)”和“突发性(Burstiness)”两个参数,从而判断一段文本是人工创作的还是AI生成的。

AI引发版权问题

在校外,AI本身的“道德”问题,则让美术“老师”们对新生的AI绘图工具提出了严重的质疑,这直指另一个至关重要的问题——版权

自AIGC风靡以来,众多行业的配图任务都变得相对简便。以媒体行业为例,由于严肃媒体对新闻配图有着严格的要求,既需要确保图片与文本寓意相符,又需尊重版权。因此,无论是原创艺术作品还是授权图片库中的图片,都需经过精挑细选。然而,受到客观因素制约,许多文章难以寻找到完全符合需求的配图。

有了AI绘图以后,很多媒体人开始尝试用AI画配图,甚至是直接绘制新闻人物的肖像。那发自己用AI做的图,总不会侵权吧?这个问题,还真不一定。

AI诚信危机:ChatGPT引发的学术诚信探讨

使用6penAI生成的拜登&特朗普画像

在2022年下半年,AIGC正处于人气上升阶段,此时便有部分知名艺术家针对AI绘图技术提出质疑。进入2022年,包括Erin Hanson在内的多位美国艺术家发起了对Stable Diffusion的抗议活动,他们指控Stable Diffusion所生成的某些作品涉嫌抄袭他们的创作风格,这种行为被他们视为对他们的合法权益的严重侵犯。

AIGC,即人工智能生成内容,尽管名为”AI生成”,但实际上它并无独立的创新能力,只能通过对人类生产过程的持续学习来实现模仿。在AI训练的过程中,大量的 human-generated artwork需要被”投喂”进入系统,以便让AIGC从中学习人类在构图和绘画方面的技巧,进而达到实现AIGC的目的。换言之,AI绘图等AIGC应用实际上是利用了机器学习算法对人类艺术作品进行逆向工程,以生成新的艺术作品。

不过在这个生成的过程中,AI学的实在太像了,以至于很多画作直接与模型库中的人类画师风格完全一致。

在我国的艺术与创意产业中,知名画师们有时会遭遇作品被盗用或创意被侵权的情况。据一位国内知名游戏公司的美术总监透露,尽管人工智能并未全面复制画师的作品,但风格的借鉴仍然让画师们感到难以接受,无论抄袭者是人类还是AI。他认为,若有人公然使用与他绘图风格完全相同的画作,无论是出于学习或是参考的目的,都无法真正达到他所期望的效果。然而,当这些“创作”的作品出现时,就仿佛声明了其原创性,这让他感到严重的权益侵犯。

AI的抄袭、剽窃和作弊不应该只是道德问题,还需要法律法规的约束。而目前,AI在很多领域都存在法律盲区。

在我国的AI领域,立法工作目前正处于建立法规和制度阶段。已发布的两项与AI相关的监管规定,《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》,已经开始生效。然而,除这两项规定外,分散在《民法典》、《数据安全法》、《网络安全法》、《个人信息保护法》、《网络音视频信息服务管理规定》、《网络信息内容生态治理规定》等法律法规中的部分条款规定以及支持产业发展的相关文件,尚未形成一个完整的法律体系。

“AI生成内容是一项新兴的技术,法律的滞后性和稳定性导致目前还没有专门对这种AI疑似抄袭的现象进行规制。”观韬中茂律师事务所合伙人王渝伟表示,从国外行业实践来看,越来越多的平台和AI绘图工具对作品版权作出了严格要求,谨防AI抄袭导致著作权侵权。在我国,目前还是应当根据《著作权法》,判断AI生成内容与人类艺术家作品之间是否存在实质性相似,进而认定是否抄袭。

除了涉嫌抄袭艺术家作品的AIGC内容,在另一方面,即使是随机生成的内容及画作,也还是会涉及版权问题。

AI绘图在抖音和小红书上刚刚兴起之时,即有脑洞大开的网友提出,可以把AI生成的图片挂到付费图库作为收费资源,实现“躺赚”。

面对这样的骚操作,Adobe选择“有限制”地开放AI绘图。只要符合特定标准,就允许在图片库Adobe Stock中上传生成式 AI 艺术品进行售卖。但上传前必须标记 AI 制作的内容,并且需要拥有其参考图像或文本的商业版权。

作为一款开源模型,Stable diffusion的开发者Stability AI和RunwayML则认为既然开源,那么它也应该依此引用开源CC0协议,即版权归公,同时任何人也可以自由地使用,包括商业使用。而对于DALL-E 2和Midjourney这样并未开源的AIGC模型来说,生成内容的权属则相对模糊。

目前AIGC市场上也存在很多版权乱象,一些基于Stable Diffusion开发应用的厂商声称,使用自己AI程序生成的图片版权归自己,甚至依此生产NFT向使用者兜售。

对此,王渝伟认为,AI应用的使用者,在使用这种应用进行创作时,生成的图片如果符合独创性的要件,就能够构成《著作权法》上的作品。而厂商已明确告知了使用者著作权的归属问题,相当于在合同中已经进行了约定,所以这种作品的著作权应当归属于厂商。 并不是说AI应用基于开源模型开发,它所生成的作品就不存在著作权,还是应当根据《著作权法》的规定判定著作权归属。

“目前相关法律制定最大的障碍和阻力,可能是法律如何保持科技发展和伦理价值的平衡。”王渝伟提出,一方面,AI技术的高速发展,可能会与人类的基本伦理认知相违背,违反社会公序良俗;另一方面,法律的规制也不能对AI技术设置过于严苛的标准,影响AI的进一步发展。

AI诚信危机:ChatGPT引发的学术诚信探讨

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

版权声明:lida 发表于 2023年12月24日 am10:31。
转载请注明:AI诚信危机:ChatGPT引发的学术诚信探讨 | ChatGPT资源导航

相关文章