传媒观察|ChatGPT治理:在发展与管理间找到平衡点

学会提问 2年前 (2023) lida
45 0 0

编者按 以ChatGPT为代表的智能传播将带来人类信息传播范式的根本转变,也意味着旧有治理范式的失效和缺失,网络治理进入全新的深水区。浙江传媒学院新闻与传播学院助理研究员钟祥铭和浙江大学传媒与国际文化学院求是特聘教授、乌镇数字文明研究院院长方兴东、浙江大学传媒与国际文化学院博士后顾烨烨在《传媒观察》2023年第3期刊文,从传播变革的基础逻辑入手,系统研究ChatGPT背后的传播机制和内在规律,深入分析各层面可能面临的治理挑战,并由此建构未来治理逻辑和制度框架的基础。文章认为,治理的关键在于时机的把握,应根据ChatGPT类应用的主流化进程,探索“先发展,再治理”和“边发展,边管理”两种节奏的灵活组合。而且,技术创新是ChatGPT治理的最终决定因素,中国ChatGPT的发展与治理应建立在不亚于甚至超越美国企业的技术水平和竞争能力之上。

本质上而言,ChatGPT属于人工智能生成内容(AIGC)的一种。AIGC内容生产中的制度建设与保障,涉及多元主体,涵盖多个领域,不仅关乎国家对产品的管理秩序、精神文化产品的生产繁荣,也关乎投资者、研发者、制造者、使用者等相关主体的切身利益,制度的建设与安排牵一发而动全身。因此,如何把握分寸和节奏,是ChatGPT治理的关键所在。

英国技术哲学家大卫·科林格里奇在《技术的社会控制》(1980)中指出,一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以爆发。反之,如果控制过晚,已经成为整个经济和社会结构的一部分,就可能走向失控,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。这种技术控制的两难困境,就是所谓的科林格里奇困境(Collingridges Dilemma)。ChatGPT的治理问题,就是今天我们迫在眉睫所要解决的科林格里奇困境。ChatGPT的本质是信息,其影响社会的底层基础依然是传播问题。因此,本文从信息传播角度入手,深入考察ChatGPT的治理逻辑和对策建议。

一、ChatGPT冲击波:网络治理进入深水区

首先,ChatGPT正在以势不可挡的力量影响产业主导权,具体包括资源主导权、技术主导权、资本主导权和市场主导权四个层面。一方面,ChatGPT有助于促进新兴科技产业的发展、推动传统产业的转型,同时将催生一大批新产业、新职业、新业态;另一方面,ChatGPT的发展也将对部分传统产业带来潜在危险,主要集中于传统媒体、客户服务、教育行业等领域,一些普通文字工作者、线上客服、翻译员、初级代码编写员等可能会面临失业的冲击,ChatGPT将重塑智能时代产业格局下的人才需求。

其次,ChatGPT必将带来诸多意识形态治理困境。ChatGPT所形塑的“三观”——它们在处理文本中的思想、意识形态偏向,直接受到研发公司的灌输。自我定义为“理性、中立、客观”的ChatGPT,实则充斥着双标悖论与失实报道。

再次,ChatGPT在国际传播层面具有变革性意义。随着ChatGPT在世界范围的广泛应用,AIGC在国际舆论中的参与比重以及影响力将持续加大,进而深刻影响国际传播格局。

最后,ChatGPT给社会治理带来多方位的冲击。比如,某些恶意行为者可能会通过这些模型自动生成大规模且极具说服力的误导性或虚假内容,从而制造影响力暗中操纵公众舆论。如果不加以适当的控制,可能会将操纵舆论、制造假新闻和仇恨言论带到前所未有的水平。而在教育领域,智能技术的应用已带来了多重冲击。一方面,AI可能会让学生面临“自主性被蒙蔽、能动性被误导、创造性被弱化”的风险;另一方面,AI也引发了教育评价层面的多重风险,“表现为评价制度和数据标准的缺位、技术至上的作祟、评价主体智能素养的孱弱、数据主义的滥觞、隐私安全的披露等。”就业领域受到的冲击则远甚于此:葛鹏等人研究发现,2013年后机器人已对劳动者呈现净替代效应,尤其是对制造业就业呈现逐渐增强的替代趋势。在政策领域,AI技术也会通过减少就业机会和降低工资收入水平两种传导路径引发劳动力迁出决策,尤其是在中低技能、常规性职业、农村户口和非国有企业等领域的劳动力。ChatGPT则进一步加剧了这种情况,不仅是中低技能,高技能高学历者如计算机编程、论文写作等领域也受到了冲击。Nature杂志在一周内连发两篇文章探讨ChatGPT及生成式AI,并指出学术圈使用ChatGPT已不可避免,呼吁尽快明确使用规范。极具讽刺意味的是,美国国会诞生了其历史上第一个由AI撰写的关于“监管AI技术”的决议。

于当下中国而言,ChatGPT对整个社会信息传播带来的变革以及对国际传播的影响,将是颠覆性的,这也标志着网络治理进入全新的深水区。而目前无论是我们的方法和思维,还是我们的基础条件和技术能力,都远不足以从容应对,必须对此予以高度重视。

二、从技术出发:ChatGPT的治理逻辑和制度框架

ChatGPT作为全球AIGC发展的最新成果,是大数据应用和算法进步带来的激动人心的应用,然而“不受限制和不受监管”的技术发展令人惊恐。尽管由透明度、公正和公平、非恶意、责任和隐私所构成的AI伦理原则正在全球层面形成趋同,但在如何解释这些原则方面仍存在实质性分歧。技术他者性的逐渐彰显,使得当代技术哲学亦在不断追问人与技术伦理的关系。

ChatGPT母公司提出,其应用是一个被训练用于处理文本数据的算法模型,不包含意识形态倾向,不会对任何国家意识形态产生任何影响。然而,算法的设计和操作与我们对其道德含义的理解之间的差距,可能会对个人、群体和整个社会产生严重影响。算法模型背后内嵌着伦理和治理规则。

基于ChatGPT内容生成机制中存在着的“数据库”“算法模型”两大技术关键,治理路径应该先从技术出发。AIGC的核心是数据,对海量数据的治理是实现“善治”的重要前提,主要包括对数据采集整理、质量控制、标准化和分类、存储和管理等环节的治理,以实现数据的高效、安全、可靠的利用和管理。AIGC的关键是算法,对于算法模型的治理是实现“善治”的关键因素,主要包括对算法的选择、评估、优化、安全和可解释性的治理,以提升算法的科学性、合理性和可靠性。制度建设与行政管理也是AIGC治理的重要手段。技术发展需要制度保驾护航,发展过程需要管理并驾齐驱,已经成为学界的共识。在人工智能研究、开发、应用、推广的各个阶段,要逐步建立起科学、规范、完善的制度框架,主要包括政策制定、法律法规、标准规范、监督机制等,形成完整的制度体系,采取一系列具体的、可操作的管理手段,提高治理的效率和质量,保证AIGC的安全、合法、可持续发展。更重要的是,治理目的要回归人的全面发展。

当前,ChatGPT所引发的问题主要包括隐私泄露、人工智能歧视、虚假新闻与信息扭曲、意识形态渗透、思想陷阱等,对于其所造成的一系列社会风险,亟待建立配套完善的安全治理机制、伦理道德治理机制、意识形态治理机制。安全治理主要应对数据泄露、滥用、误用等问题,通过建立集安全需求分析、风险评估、安全策略和措施为一体的安全治理机制,保证AIGC的可控性和安全性;伦理道德治理涉及隐私保护、公正性、权益保护等问题,通过建立完善的伦理道德治理机制,增强其合法、公正、正义性质,涵盖道德要求的明确、道德问题的识别和解决、道德教育和宣传等,保证AIGC符合社会和公众的道德期望和要求;意识形态治理主要是为了预防西方意识形态与价值观的入侵与渗透,ChatGPT等AI生成内容的新突破,彻底变革了内容生产方式,蕴含着西方意识形态与价值观的内容更多通过隐性的方式传播,使得我国原本的意识形态防范机制失效,为我国带来前所未有的治理难度。建立意识形态治理机制,需从意识形态分析、政策与法规制定、加强监管、素养教育等四个方面着手,通过对AIGC内容生产与传播的深度分析,在“AI-用户”之中嵌入监测与预警机制,有效防范有害意识形态的传播。

AI是运用科学技术解决现实问题的有效工具,是生产力发展向智能化进阶的重要体现。如詹新惠所认为的,技术不是目的,更好的世界、更美好的生活才是目的和目标。如何充分挖掘和发挥生成式AI的价值,使之服务于人类的全面发展,才是人工智能治理的出发点和落脚点。以ChatGPT为代表的AIGC传播机制的治理逻辑应该围绕“技术逻辑出发,回归人类需求”的思路,以数据治理、算法治理为基本,以安全治理、道德伦理治理、意识形态治理为归宿,通过对内容生成与传播的制度治理与过程治理,最终实现AIGC的“善治”。

三、负责任的AI:ChatGPT治理的欧洲实践和国际经验

作为全球数字治理制度建设的风向标,欧洲正试图在AI治理全球规则的制定上掌握主动权与主导权。随着ChatGPT的爆红,关于AI监管的辩论和争议都指向了目前在欧洲议会受阻的《人工智能法案》。它旨在对高风险AI系统制定严格规则,且明确定位于成为一个全球模式。然而,当前对AI的监管主要集中于传统的AI模型,而非以ChatGPT为代表的大型生成式AI模型。为此,欧盟委员会正试图增加管理此类技术的规则。2023年2月初,欧盟负责内部市场的委员蒂埃里·布雷东日表示,欧盟正在考虑设立规章制度,以规范其使用,确保向用户提供高质量、有价值的信息和数据。

总体上,尽管各国政策制定者正在努力跟上AI技术领域不断加速的动态,但关于通用AI的监管与治理,事实上已经成为一种事后思考。人们对生成式AI这一新兴事物的认知仍然处于循序渐进的过程中。随着诸如隐私泄露、知识产权、非法使用以及国家安全等问题在不同领域的扩散与渗透,创建一个全面的制度框架对其进行规范是一项艰巨而复杂的任务。

除了欧洲在AI制度建设上的努力,中美作为AI开发中最重要的两个参与者,两国发展态势通常被描述为一种“AI竞赛”。2017年,国务院发布《新一代人工智能发展规划》,明确了我国建立AI法律法规、伦理规范和政策体系的决心。2019年和2021年,国家新一代人工智能治理专业委员会相继发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》。2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,自2023年1月10日起施行,对类ChatGPT的应用服务提供者、技术支持者提出了标注区分等一系列要求。近年来,美国对AI的监管正采取更加积极的态势。特别是自美欧贸易和技术委员会(TTC)成立以来,美国与欧盟的相关监管政策也趋同对标。从旨在保护个人数据和限制监控的《人工智能权利法案》(AI Bill of Rights)到《平台问责制和透明度法案》(Platform Accountability and Transparency Act)的推出,表明未来美欧之间将达成更多共识。如Emmie Hine和Luciano Floridi所呼吁的,各国政府应超越竞争性地缘政治动态的传统概念,采取价值多元主义的立场,承认存在多种治理方法的空间,通过对话,为一个良好的全球人工智能社会勾勒出共享价值观的具体参数,超越美国所建构的普遍“人类价值观”的自私言论。一个良好的全球AI社会,应该由人类之间的和谐合作引领。

四、跨越鸿沟:ChatGPT的中国战略与治理对策

ChatGPT的中国治理对策还是要继续在“先发展,再治理”和“边发展,边管理”两种节奏的组合中灵活把握。我们必须认识到,ChatGPT的威力并不在于作为单一聊天机器人或者搜索引擎新应用,而是数字技术发展到今天,以一种全面升级的科技基础设施,支撑整个科技、产业、社会、经济、文化等不同层面。以ChatGPT为代表的传播能力和技术能力将呈现高度的渗透性和扩展性,将陆续整合到各种应用和各个领域之中。如微软除将ChatGPT整合到必应(Bing)搜索引擎之中,还将整合到Office办公软件“全家桶”之中,更将整合到微软云计算Azure之中,可以为各行各业赋能。因此,过去针对信息、内容和流程的传统网络控制模式将不再有效,作为一种有着广泛应用场景的通用目的技术,ChatGPT类应用的发展是全球性的大趋势,单纯的封堵模式将处于防不胜防的尴尬地位。

由于智能传播消解了过去大众传播和社交传播所具有的内容生产和传播特点,信息和内容进入了数据和算法驱动的“暗网化”的不可见传播模式,因此,将极大突破现有日渐完善的法律法规体系,我们依赖的基础性的网络综合治理体系,也将出现诸多失效和缺位的现象。当然,通过国家法治、行业共治和企业自治等层层推进的治理逻辑依然没有改变。

一方面,政府作为“守门人”的守门人,需要扮演更加积极有为的角色,强化监管的技术能力和运行监督能力。应通过类似欧盟《数字市场法》这样的重大制度创新,形成更加高效的事前监管能力,将责任和义务落实在前。另一方面,要建立架构智能传播时代权力再平衡的制度体系。除了强化平台主体责任,还必须通过算法透明、接口开放、数据共享等为用户赋权。1996年美国《通信规范法》第230条是平台责任的核心法规,旨在保护平台免于因参与内容审核而承担法律责任。而如今,这个奠定平台内容主体责任的基石,很可能随着生成式AI兴起而崩塌。

AI发展的三大要素是数据、算法、算力,中国在这三方面都有良好基础。而且中国已经在AI层面积累了一定的技术能力和人才储备,但必须克服各自为战的碎片化陷阱,摆脱注重短期激励驱动的追赶模式,充分发挥我们的制度优势,通过创新机制,形成以具有长期主义价值观的华为等为龙头的中国产业生态力量,并在中国市场乃至全球市场,与美国科技公司展开正面竞争,这是我们赢得主动权和主导权的关键所在。此次ChatGPT的爆红,让谷歌、Facebook、百度等大公司面临极大冲击,说明真正颠覆性创新还是需要依靠新兴的创业公司。当然,大公司在普及方面仍拥有一定优势。因此,需要采取双管齐下、优势互补的路径。既强力支持新兴的中国创业公司,又大力激发大型企业参与这场竞争,应该成为我们政策和战略的基本主线。

我们也必须避免简单封堵的消极治理。ChatGPT刚刚崛起,其技术功能、产品形态、产业生态和传播潜能的走向都还处于初期,都在快速演进和发展之中。塑造一个良好的AI创业和创新的环境与生态,至关重要。前期依然需要秉承审慎包容的管理思维与逻辑,以问题为导向,有针对性地推进治理和监管举措。目前ChatGPT主要用于机器人聊天和搜索引擎整合,主要面向个人消费者,局限于个人与ChatGPT之间的交互,应用本身并不具备更大的公共传播力。因此,当下可以先采取审慎包容的态度,仅对少数在社会层面产生严重负面传播影响的内容采取措施,避免简单一刀切。

最后,与时俱进,逐步建立针对性的新型多元治理体系。深入研究,遵循变革趋势,把握生成式AI(AIGC)的技术特性和传播规律,针对性建立相应的多元体系。只是传统管理方式不但效果有限,而且极大制约自身发展,更可能适得其反。除了健全现有的治理体系,技术问题的治理必须立足于有效的技术手段和技术工具之上。应建立由相关领域专家参与的AI训练过程,开发可信赖的增强学习算法。同时,强化平台主体责任,在企业技术研发中形成兼顾发展和治理的工作机制。

总之,面对ChatGPT热潮,我们必须从技术和产业自主权、意识形态主导权、国际传播主动权等方面形成综合的战略考量。ChatGPT代表的是全球科技行业的发展趋势,并不是单一的应用,大量类ChatGPT以及更多新产品和新技术将如雨后春笋般迅速蔓延。错失这场技术趋势的代价将会非常高昂,我们必须投入这场数字时代最关键的竞争。

(载《传媒观察》2023年3月号,原标题为:ChatGPT的治理挑战与对策研究——智能传播的“科林格里奇困境”与突破路径。此为节选,注释从略。学术引用请参考原文。本文为2021年国家社科基金重大专项(21VGQ006)阶段性成果。)

【作者简介】钟祥铭,浙江传媒学院新闻与传播学院助理研究员

方兴东,浙江大学传媒与国际文化学院求是特聘教授,乌镇数字文明研究院院长

顾烨烨,浙江大学传媒与国际文化学院博士后

举报/反馈

版权声明:lida 发表于 2023年3月31日 pm2:51。
转载请注明:传媒观察|ChatGPT治理:在发展与管理间找到平衡点 | ChatGPT资源导航

相关文章