ChatGPT引发媒体业震动:旧文章何以失踪?科技巨头回归风潮?
文章主题:ChatGPT, 媒体准确性, 卫报事件
财联社4月6日讯(编辑 史正丞)在过去24个小时内,ChatGPT与现实社会的碰撞又出现了新的案例:媒体们发现机器人不仅会“胡说八道”,而且会告诉使用者虚假信息来源于真实的媒体。
上周的一个晚上,乔治·华盛顿大学法学院教授乔纳森·特里从律师朋友那里听到了一个五雷轰顶的消息:在ChatGPT生成的一份“有性骚扰历史的法学学者”名单中,他的大名赫然在列。
OpenAI的对话机器人“声称”,《华盛顿邮报》于2018年3月发表的一篇文章中提及,特里在一次前往阿拉斯加的修学旅行中不仅发表过性骚扰的言论,还试图上手触摸一名学生。但事实是,《华盛顿邮报》根本没发过这篇文章,也不存在阿拉斯加修学旅行,特里更是从来没有被指控过性骚扰。
特里接受媒体采访时表示:“这真是令人不寒而栗,这种指控极具危害性。”
在ChatGPT展现惊人的科技进步后,微软已经上架了使用GPT-4.0的新必应,谷歌的对话式搜索引擎也已经箭在弦上。随着措辞能力的提升,这些机器人时不时会出现“一本正经地胡说八道”,自信的语气也令使用者更难分辨真实消息和虚假拼凑的流言。
在某些情况下,一些虚构的内容能令媒体记者本人都难以确信自己是不是真写过相关内容。
英国《卫报》的编辑创新主管克里斯·莫兰周四(6日)撰写文章,分享这家媒体遇到的一件囧事。
(来源:卫报)
🌟研究人员近期揭示了一项令人惊讶的发现——在使用ChatGPT进行研究时,这款人工智能模型竟然提到了《卫报》一名记者多年前撰写的一篇文章。然而,当他们仔细查找相关资料时,无论是通过《卫报》官网还是常规搜索引擎,都未能找到原文的踪迹。这引发了对其内容准确性及原始标题的质疑。📝这位记者过去的作品在学术界引起了广泛关注,但似乎ChatGPT的记忆库中存留了这份早期报道的信息。尽管如此,对于这样的情况,原作者和联系方式并未在信件中提及,保护了相关人员的隐私。💡这不仅是个技术问题,也引发了对大型语言模型如何处理旧信息、以及是否存在版权或引用不当风险的深入探讨。学术界和媒体界都应对此保持警惕,确保数据来源的透明性和准确性。🌐若你对该话题感兴趣,不妨搜索“ChatGPT与旧报道”或“AI记忆与版权”,或许能找到更多相关讨论和分析。📚记得关注我们,获取更多关于科技与知识的最新动态!🚀
虽然记者本人并不记得有写过这篇文章,但机器人给出的标题又非常像他的写作风格,而且提到的事件《卫报》的确曾涉猎过。最终报社动手对所有的报道记录,特别是删稿的部分进行回溯,最终才确定这篇文章根本就不存在。
目前对于AI搜索机器人“胡说八道”的问题,微软等公司给出的解决方案是标注信息来源。但最新发现的现象也提出了一个新问题:如果这些标注的来源本身就是虚构的呢?机器人潇洒且连贯的文风连媒体从业者都无法轻松分辨真假,更不用说单纯接受信息的用户了。
📚刚刚得知,上周又有学界人士向🌟《卫报》🌟求助,关于某篇已发表但神秘失踪的新闻调查。不出奇的是,这次的线索再次指向了人工智能ChatGPT,这场由技术引发的“报道寻踪记”似乎愈演愈烈。🔍 ChatGPT以其强大的生成能力,无形中成为了一个信息时代的迷宫,真假难辨,引人深思。
更重要的是,在搜索引擎之外,微软的Office 365和谷歌Workplace也已经把AIGC功能列为即将上架的重要功能。同时一项千人调查显示,89%的美国学生已经用上ChatGPT做家庭作业。多项早期研究显示,广告、咨询、编程工作者在使用ChatGPT后工作效率的提升能够达到50%,同时工作质量也会更高,预示着AIGC功能被大规模应用只是时间问题。
🚀industry transformation无可忽视🔍,AI浪潮正引领一场革命,超越Web3与元宇宙的创新力,它以惊人的效能重塑着工作模式,连前科技巨头如比尔盖茨 tiên觉者、拉里佩奇等都未能幸免,纷纷投身其中,急于抢占这一未来趋势的制高点。💻💼
莫兰表示,对于已经饱受虚假消息、极端化和恶意行为者影响的传媒行业来说,AIGC技术带来了令人兴奋的潜力,但首要任务依然是理解、评估并解读它对更广阔世界的影响。《卫报》准备在接下来几周时间里向外界披露这家媒体将如何部署生成式AI的计划,同时将坚持报道的标准,为所发布的每一条消息负责。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!