“用ChatGPT编假新闻牟利案”带来哪些警示 | 新京报专栏医生建议:60岁后体检,做好这4项检查就行,不必每个检查都做

学会提问 2年前 (2023) lida
48 0 0

“用ChatGPT编假新闻牟利案”带来哪些警示 | 新京报专栏医生建议:60岁后体检,做好这4项检查就行,不必每个检查都做

人工智能的目标并非客观中立呈现信息,而是判断命令者的意图,并不遗余力的通过数据的搜集和组合来“讨好命令者”。

“用ChatGPT编假新闻牟利案”带来哪些警示 | 新京报专栏医生建议:60岁后体检,做好这4项检查就行,不必每个检查都做

▲资料图。图/新华社

文 | 马尔文

据新甘肃客户端报道,近日,平凉市公安局网安大队侦破一起利用AI人工智能技术炮制虚假不实信息的案件,洪某弟通过近期火爆的ChatGPT人工智能软件将搜集到的新闻要素修改编辑后散布在互联网上,被大量传播浏览,其行为已涉嫌寻衅滋事罪。目前,洪某弟已被采取刑事强制措施,案件正在进一步侦办之中。

这也是自1月10日《互联网信息服务深度合成管理规定》颁布实施后,甘肃省侦办的首例案件。

从信息生产的层面看,生成式人工智能的目标是基于用户指令以最大效率完成生产,而非“真实”或“价值观”。在不考虑信息的真实性以及信息发布的潜在影响力的情况下,生成式人工智能极容易成为一种批量生产讯息的工具。

正因此,当“无价值观”的人工智能被应用于恶意目标,其破坏力因效率的大幅提升也相应更大。例如,对于制造虚假信息的恐惧,从ChatGPT诞生开始就引发了舆论的分裂。今年3月,上千名科学家联合声明希望限制人工智能的进一步训练和发展,便是源自于对其惊人破坏力的担忧。

甘肃平凉这一“炮制虚假信息”的执法案例,亦是对于这一生产力工具在灰色地带破坏力的现实证明。

善于“讨好命令者”的人工智能

近几个月来,国际社会多个研究机构均对人工智能与生产虚假信息之间的关系做过测试。例如,今年2月份,一家国际新闻研究机构通过ChatGPT成功生产了混杂了阴谋论的宣言、可以假乱真的新闻稿。该机构在报告中指出,仅仅只需要几分钟时间,人工智能不仅生产了“仇恨言论”,还制造和重复了谎言。

基于这一实验结果,该机构认为,“这个工具将成为网络上有史以来最强大的错误讯息工具”。

值得注意的是,这次测试使用的大模型比今天用户普遍使用的版本要更低,这也意味着,仅仅3个月后,上述这一生产虚假信息的效率与能力已经变得更强。

尽管在部分涉及社会底线的问题上,ChatGPT添加了“警示功能”,会在生产内容的同时提醒用户“内容没有事实依据”,但在没有被添加为底线规则的诸多话题领域,ChatGPT仍然有可能被利用来大规模生产复制虚假信息。

这并非人工智能被设计与训练的初衷,但客观地看,之所以频繁出现制造虚假信息的案例,源自于生成式人工智能的运行逻辑。

作为一个“服务于指令”的生产力工具,人工智能的目标并非客观中立地呈现信息,而是判断命令者的意图,并不遗余力地通过数据的搜集和组合来“讨好命令者”。

例如,如果你通过ChatGPT询问关于某人的信息,人工智能往往倾向于对其信息进行“讨好性”的加工与放大。在实际测试中,ChatGPT会将被询问的个人信息进行重新整理组合,过度使用“作出巨大贡献”或“享有赞誉”等褒奖词汇。

这种设计是因为人工智能接收的指令是“满足命令者的期待”,当人工智能感知到回答可能会让对方不满意时,会反复尝试组合信息来讨好对话者。

因此,有人调侃ChatGPT很像是精于人情世故的老江湖,总是会不厌其烦地表达赞美,而不顾忌真实情况。这种调侃,实际上是对人工智能是否应当承担“信息准确性责任”的技术伦理担忧。

“用ChatGPT编假新闻牟利案”带来哪些警示 | 新京报专栏医生建议:60岁后体检,做好这4项检查就行,不必每个检查都做

▲资料图。图/新华社

如何让“回答”更符合法规伦理

现阶段针对上述问题,科技所能拿出的解决方案是继续通过更大规模、更具精准度的训练来提高大模型的信息质量。例如,Open AI依靠人类AI训练师和用户反馈来筛选、过滤虚假或不当数据,训练ChatGPT更明智地识别命令者的意图,并给出符合法规伦理的回答。

但在人工智能大规模进入社会大生产各环节的当下,这一技术手段或许已经难以真正解决问题。一方面,当人工智能过早将整个人类社会的信息生产都变为其训练模型的试验场时,虚假信息的问题就已经彻底蔓延开来。

另一方面,面对高度复杂的道德伦理、法律法规以及信息真伪鉴别的难题,技术既难以穷尽,也难以在面对诸多道德争议问题时,做符合人情与法规的判断,因此,也更难以实现自我迭代与修复。

当前在执法层面,针对使用人工智能制造虚假信息的行为已经展开,但仍然存在诸多难以判定的“死角”。例如,如果该虚假信息并未立即产生有破坏性的结果,或者,网民并未利用该信息牟利,那么,司法手段对这些模糊地带就显得无能为力。

这需要更多的公开讨论并设定相关规范。例如,在技术层面,在投入大规模应用的大模型中,可以考虑如何设定必要的红线与信息过滤、警示机制。

而在应用上,也应对大模型的使用场景进行有步骤地开放,而不是任其一股脑进入全部领域。只有在完善了监管规则及验证了使用结果的情况下,才能进一步放开应用。

考虑到人工智能的进化速度仍在不断加快,这起普通的“虚假信息案”,更是对加快规范与立法的催促与警示。

撰稿 / 马尔文(媒体人)编辑 / 迟道华校对 / 刘越mp-common-profile

相关文章