ChatGPT很厉害,但还有关键问题悬而未决“多么尴尬的衣服!”2014年波哥大女子自行车队的队服让人辣眼睛

ChatGPT与PPT 9个月前
47 0 0
ChatGPT很厉害,但还有关键问题悬而未决“多么尴尬的衣服!”2014年波哥大女子自行车队的队服让人辣眼睛

出品 | 虎嗅科技组

作者 | 齐健编辑 | 陈伊凡头图 | 6penAI生成

1月27日,路透社消息称法国顶尖学府之一的巴黎政治学院宣布该校将禁止使用ChatGPT,对使用该软件的处罚可能会严重到被学校开除,甚至被整个法国高等教育开除。

“ChatGPT软件正在向全世界的教育工作者和研究人员提出一个涉及欺诈和剽窃的严肃问题,”巴黎政治学院在这份通知中称,“在没有透明参考的情况下,除特定课程目的外,学生不得使用该软件制作任何书面作品或演示文稿。”

巴黎政治学院并不是第一所宣布禁用ChatGPT的学校。ChatGPT发布不到一个月,就引起了美国教育界的高度重视。多所美国中学及大学陆续宣布校内禁用ChatGPT,并通过减少课后作业的方式,避免学生利用家庭网络访问ChatGPT作弊。美国纽约市教育部,甚至要求全纽约市的学生和教师不要使用这款AI工具,并对下辖的教育部设备或互联网设卡,限制访问ChatGPT。

AI生成内容的伦理和法律问题,正在引发社会各界的广泛讨论与思考。

AI背后的学术隐忧

“ChatGPT很好玩,但它不是作者”,这是《Science》期刊主编Holden Thorp在1月26日发表的一篇关于人工智能的社论。Holden Thorp指出,“原创”是Science发表论文的基础,而利用ChatGPT编写文本的行为,等同于从ChatGPT中抄袭。

“我们正在更新编辑政策,要求作者不要使用ChatGPT(或任何其他人工智能工具)生成的文本、数据、图像或是图形。违反这一政策将被Science期刊视为学术不端行为,这与篡改图像或抄袭无异。”不过Holden Thorp也表示,上述规定并不包含AI论文中以研究为目的生成的数据。

在AI学界,知名机器学习会议之一的ICML(International Conference on Machine Learning)最近也宣布禁止“发表包含从大型语言模型(LLM,Large Language Model)生成的文本(例如 ChatGPT)的论文(相关研究除外)”,以免出现“意想不到的后果和无法解决的问题”。

对于学术期刊和顶会论文来说,AI生成的内容最大的问题在于知识权属和责任确定问题。作为论文作者,研究人员无疑要对论文的观点和内容负责,而AI要如何对文章内容负责?如果AI生成的内容出现了谬误、不恰当、造假,甚至是抄袭剽窃,又该如何追责呢?

考虑到“AI作弊”带来的普遍问题,目前从OpenAI官方,到学术期刊出版商,以及“草根”开发者都在研究如何分辨一篇文章的“作者”到底是人还是机?

目前,OpenAI正在研发相应的AI检测工具。OpenAI客座研究员Scott Aaronson在德克萨斯大学的一次演讲中表示,他们正在通过给AI生成内容打“水印”来打击作弊。这项技术将通过调整ChatGPT生成单词的规则,在生成内容的特定位置制造“伪随机”的特定单词,读者很难察觉,但就如同密电码一样,“握有密钥”的人就轻易判断这篇内容是否是ChatGPT生成的了。

《Nature》的出版商Springer Nature也正在开发可以检测LLM的技术。而就在前不久,普林斯顿大学的一位22岁的华裔学生Edward Tian研究出了一款专门给ChatGPT挑毛病的应用GPTZero,可以通过检测文本的“困惑性(Perplexity)”和“突发性(Burstiness)”这两项指标,来判断内容是人类创作还是机器生成。

AI引发版权问题

在校外,AI本身的“道德”问题,则让美术“老师”们对新生的AI绘图工具提出了严重的质疑,这直指另一个至关重要的问题——版权。

自从AIGC火了以后,很多行业的配图工作变得轻松了许多。以媒体行业为例,严肃媒体对新闻配图要求高,既要符合文意,又要对版权负责。所以无论是美术作品还是照片,要么是亲手创作,要么来自授权图库,但很多文章受客观条件限制,要找到一张符合要求的配图并不容易。

有了AI绘图以后,很多媒体人开始尝试用AI画配图,甚至是直接绘制新闻人物的肖像。那发自己用AI做的图,总不会侵权吧?这个问题,还真不一定。

ChatGPT很厉害,但还有关键问题悬而未决“多么尴尬的衣服!”2014年波哥大女子自行车队的队服让人辣眼睛

使用6penAI生成的拜登

相关文章