ChatGPT风暴来袭:学术界热议大语言模型带来的新挑战与变革

文章主题:关键词: ChatGPT, 信息生产与流通, 伦理法规, 文化领域

666ChatGPT办公新姿势,助力做AI时代先行者!

本刊官方网站:

http://cjjc.ruc.edu.cn/

作者简介

张尔坤、张一潇,北京师范大学新闻传播学院博士研究生。

引言

🌟ChatGPT引领语境革命!🚀互联网生态迎来创新巨变,多轮对话与生成技术的革新正深刻重塑传播格局。于5月14日,北京师范大学新闻传播学院携手清华大学新媒体研究中心及国际知名学术期刊《国际新闻界》在北京举办了这场别开生面的“ChatGPT启示会”✨。汇聚了顶尖学府,如北京大学、中国人民大学和北京师范大学等重量级院校的20余位学术巨擘,他们齐聚京师大厦,围绕三个核心议题展开深度探讨:🤔”大模型下的信息生成与传播挑战”,🔍”伦理法规在新语境中的应对策略”,以及”cultural impacts under the language model’s influence”。这场为期一天的知识盛宴,充满了智慧火花的碰撞和未来趋势的洞察。会议以开放、平等的学术精神为基石,共提出了66个引人深思的传播学研究新议题,旨在揭示并应对ChatGPT时代带来的崭新挑战与机遇。🌟SEO优化后的表述:探讨ChatGPT对信息生产、伦理法规及文化影响的#ChatGPT启示会#,2023年5月在京成功举办,聚集了顶尖院校学者,提出66个传播学研究新问题,引领行业深度解析大语言模型带来的变革。📚🔍🌍

研讨嘉宾

(上午场)

美国卡耐基梅隆大学计算机系博士候选人戴舒琪

北京师范大学新闻传播学院讲师李倩

北京师范大学新闻传播学院副教授刘茜

北京师范大学新闻传播学院副教授钱忆亲

北京大学新闻与传播学院研究员、助理教授苏岩

北京师范大学艺术与传媒学院博士后赵蓓

清华大学社会科学学院副教授张开平

北京师范大学新闻传播学院副院长、教授周敏(主持)

中国人民大学新闻学院讲师张伊妍

北京师范大学新闻传播学院讲师、助理教授朱毅诚

研讨嘉宾

下午场

北京师范大学新闻传播学院副院长、教授丁汉青

北京师范大学新闻传播学院党委书记、研究员方增泉

北京大学新闻与传播学院教授胡泳

清华大学新闻与传播学院教授、院学术委员会主任金兼斌

中国人民大学新闻学院教授、传播系主任刘海龙

天津大学新媒体与传播学院院长、讲席教授陆小华

中国人民大学新闻学院教授彭兰

清华大学新闻与传播学院教授沈阳

北京师范大学新闻传播学院教授、计算传播学研究中心主任吴晔

北京师范大学新闻传播学院教授喻国明

北京师范大学新闻传播学院教授、新媒体研究中心主任张洪忠(主持)

中国传媒大学新媒体研究院院长、教授赵子忠

🌟【ChatGPT技术解析】🚀由教育界的重量级人物周敏教授引领,北京师范大学计算传播学研究中心主任吴晔教授深入剖析了ChatGPT的神秘“四板斧”!🔥1️⃣ 首先,ChatGPT的“文字魔术”——生成逻辑,就像一场文字接力赛,通过统计学习预测文本走向,看似聪明却未触及问题核心。🔍2️⃣ 接着,吴教授揭示了它如何巧妙地引导答案路径,就像指挥棒,虽人工干预但又不失灵活性。🎵3️⃣ 人类的智慧在此得到体现,通过标注和反馈,模型持续学习,提升其解答能力,这是它的第三招“智慧升级”。📚4️⃣ 最后,强化学习是它不断进步的关键,就像运动员在比赛中调整策略,模型通过与用户的互动,优化自我,追求最佳答案。🎯ChatGPT的每一步都透露着科技与教育的深度交融,让我们期待它未来在传播领域的更多创新突破!🌐

🌟下午时段,由北京师范大学新媒体研究中心的重量级专家张洪忠教授引领,他对ChatGPT的核心技术亮点和大语言模型对互联网革命的深远影响进行了深度剖析。他指出,ChatGPT的重大突破在于其开放域多轮对话的创新,打破了单一问答的局限,为复杂对话场景提供了更灵活的解决方案,预示着未来人机交互的新纪元。 Além disso, ChatGPT的生成式文本技术,如“接龙游戏”般流畅,进一步推动了自然语言技术的进步,从信息处理迈向了更为人性化的沟通。值得注意的是,ChatGPT只是大语言模型庞大世界中的冰山一角,国内各大企业如百度、阿里、腾讯、华为和字节跳动等,以及清华大学等学术机构,纷纷投入研发,争相打造自己的大模型。这无疑将引发一场关于技术门槛、算力竞争、云端之战以及对话平台化的新讨论。未来互联网的竞争格局将围绕这四个关键转向展开:大模型是否成为入门必经之路?资本的计算能力是否会主导竞争?云服务时代真的到来了吗?以及,对话能否真正成为连接用户与平台的核心力量?让我们共同期待这场技术与创新的盛宴。🌍

大语言模型时代传播学研究新问题讨论

议题一:大语言模型下信息生产与流通领域的问题

🎓💡四位业界权威人士——清华大学金兼斌教授、美国CMU戴舒琪博士候选人、人大张伊妍讲师与北师大赵蓓博士后,聚焦于大语言模型的算力霸权问题,深入剖析其背后的挑战。👀🔥戴博士强调,训练如此庞大模型所需的天文级计算资源,无形中筑起一道高门槛,阻碍了学术界对创新模型的持续探索,未来或将形成少数大型企业和机构主导前沿技术的局面。从信息生态的角度,这可能带来应用市场的垄断,抑制多样性的声音。📝💼张伊妍进一步指出,算力垄断可能导致价值导向的风险,特别是在新闻生产和流转中,大语言模型的价值偏见和刻板印象可能会被放大,这对透明度和专业素养的提升提出了更高要求。赵蓓对此表示担忧:随着技术迭代升级,对计算资源和经济投入的需求日益增长,这是否会引发国际间的竞争?金教授则明确指出,国际竞争在所难免,他强调了抢占先机的重要性,认为技术的领先地位会强化“马太效应”,因此我们需要未雨绸缪,将大语言模型视为战略资源进行布局。🌍🌈#大语言模型 #算力垄断 #信息多元化 #价值风险 #国际竞争 #战略资源

🌟北京大学新闻与传播学院的两位专家苏岩和张伊妍,就大模型对知识鸿沟的影响进行了深入探讨。每一轮科技革新都伴随着知识鸿沟的再定义:是缩小还是继续扩大?🤔苏岩教授认为,从知识生产的角度看,鸿沟似乎在加深,因为那些信息资本丰厚的人群依然主导着知识的创造和分配。💰然而,张伊妍助理教授持有不同见解,她坚信大语言模型有可能成为弥合差距的力量,推动知识民主化。🌍比如,对于老年人来说,使用自然语言获取信息而非搜索引擎,能有效降低获取成本,这是个积极的变化。💻ChatGPT在编程学习中的普及也反映出技术鸿沟在逐步缩小,它为更多人提供了平等的学习机会。📚总的来说,科技的发展既是挑战也是机遇,关键在于如何平衡和利用这些工具,以促进知识的普惠。🌍

🌟彭兰教授警示,AIGC的崛起可能导致真假难辨的信息泛滥,对个体与社会构成严峻挑战,引发大众对于未来信息环境的深思。🎓陆小华教授质疑,如何界定机器生成内容是否合理,大模型检测逻辑需审慎审视。🤔张开平副教授关注ChatGPT跨文化传播问题,强调不同文化背景下的认知差异可能导致信息真伪难辨。📝苏岩副教授指出,媒介素养在此至关重要,能帮助人们抵御虚假信息的侵蚀,构建知识体系。🤖赵蓓担忧社交机器人可能利用大语言模型生产误导性内容,潜在地进行舆论操纵,多级传播风险不容忽视。🎓李倩讲师关注社交机器人与大语言模型结合后的识别挑战,吴晩辈提出算法应对仍有空间。但对于未来的发展,戴舒琪则持有保留态度。

其四,北京师范大学新闻传播学院教授喻国明、中国传媒大学新媒体传播研究院教授赵子忠、北京师范大学新闻传播学院研究员方增泉、北京师范大学新闻传播学院副教授刘茜、北京师范大学新闻传播学院助理教授朱毅诚、李倩、赵蓓还谈到了大语言模型在信息生产过程中的潜在影响。喻国明认为,大模型是一个“出道即巅峰”的现象级媒介,对人类社会的影响越来越深刻和全面。赵子忠提出问题:大语言模型如何变革信息聚合和信息分享模式?刘茜指出:在大语言模型的背景下,应当更多去思考技术对于社会公众的自信或者自我效能的影响是怎么样的?尤其是当前正处于过渡阶段,不同群体对技术可能有不同的反应。朱毅诚接着这个话题谈到:我主要考虑了两个方面的问题,第一是ChatGPT作为内容创作过程中的工具、对话对象,这种“联合信息生产”或者说“信息共建”的能力和结果的差异性研究是值得关注的;第二是内容强依赖行业,如新闻、教师、营销等行业的培养和行业组织内部的沟通和关系重构的问题。另外两位学者李倩、赵蓓都提到了信息产生过程中的人机交互问题,李倩更侧重于大语言模型对虚拟现实(VR)人机交互的影响,赵蓓则更关注大语言模型对人机交互(UI)可能带来的改变。最后,北师大新闻传播学院党委书记、研究员方增泉对大模型训练语料不对称、不平等的问题提出了担忧。

议题二:大语言模型下伦理法规领域的问题

随着人与大语言模型创作边界逐渐模糊,模型透明度对受众的影响引起了北京大学新闻与传播学院教授胡泳、张伊妍、赵蓓等学者的关注。胡泳指出:任何机器学习技术的工作原理一定比手工编码系统更不透明,甚至科技公司的工程师也很难确切地说明算法的工作方式,这种不确定性的叠加可能会在未来某个时间节点产生不确定性的“爆炸”。张伊妍基于人机共创背景谈到:当人接到一个创作任务,把创作目的转换为大语言模型的输入指令并对输出结果进行适当修改的过程中,人机已经融合并形成一种赛博格(cyborg)的创作效果,这导致人与大语言模型创作边界的模糊。透明度问题的重点在于将自主权留给受众(keep them informed),通过百分比方式呈现人与大语言模型双方对内容的贡献比例。赵蓓认为可以将透明度问题细化为算法透明度、数据透明度、使用透明度三个组成部分。在算法透明度上,一些大型语言模型如GPT-3的算法已经公开,人们可以通过学习模型的内部机制和参数了解其工作方式,并据此分析模型生成内容的偏见和错误,但GPT-3之后OpenAI、谷歌不再公开算法,透明度的降低可能会影响大语言模型的未来发展;在数据的透明性方面,大语言模型的训练数据通常是不公开的,整个决策过程往往是一个黑箱;在使用透明度上,赵蓓指出在使用大语言模型之前,应先制定规范使用透明度标准,避免陷入被动的“使用—检测”竞争之中。

其二,戴舒琪、苏岩等学者提出ChatGPT使用中的隐私保护的问题。戴舒琪以患者就医为例指出,医生输入患者信息并利用ChatGPT为患者开具自动病历的过程中,患者信息会被传输至美国OpenAI公司的服务器上,如何保护患者个人隐私将成为新的问题。苏岩认为,ChatGPT带给人的即时性便捷是仅仅是一种表象,长此以往的后果可能是“数字利维坦”的出现,届时个人隐私数据变为公开信息。赵蓓提到,目前基于大语言模型开发的聊天机器人已能够根据大量聊天记录合成虚拟用户,这一虚拟用户类似于真人用户的数字化身,与虚拟用户的对话可能导致真人用户的隐私泄露。

其三,喻国明和陆小华两位教授认为大语言模型将对社会治理逻辑产生革命性影响。喻国明指出:从古至今人类社会的政治、经济、文化都属于精英治理模式,而技术对于人类社会最大的颠覆在于人类平等性的增强,拉平人与人之间的差距,打破精英和大众之间的壁垒,削弱精英赋权的基础,这将对未来包括传播在内的整个社会治理、运作产生重大甚至根本性的影响。同时,人类增强可能导致精英治理的“黄昏”。在技术的加持下,人类可以从自然版本的身心结构发展到更聪明、更长寿也更符合人性的后人类结构,这一增强使人的差距骤然缩小,这是技术最重大的社会影响。这一影响可能从两个角度来改变未来的发展趋势,一是将人的体能、智能与领袖能力均值化,精英治理彻底变成所谓的庸众治理,但这种情况发生的可能相对细微。更大的可能在于人类增强技术无法拉平人的差距,精英治理会以弱形式长期存在,形成一种新型的普遍强人治理,将精英治理改头换面保持下去。社会治理机制与逻辑的过渡、转变将是面对未来的重大问题。陆小华认为,大语言模型已经在重构社会规则,第一层表现为法律治理规则的重构,互联网、数字技术等相关法律将被改写;第二层表现为传播主体的重构,大语言模型将成为新兴内容生成主体,让社会进入人机共生时代。

其四,北京师范大学新闻传播学院副教授钱忆亲提出了AI伦理法规制的落地问题。钱忆亲指出:关于AI伦理法规学界已讨论多年,当下相关探讨已度过达成某种标准或共识的阶段,进入到实施阶段,即如何把AI伦理落地的阶段。目前国际社会关于AI伦理的探讨仍然比较抽象化、概念化,中国的AI伦理法规如何落地是学界亟需关注的问题。另外,中国大陆在AI伦理的国际标准制定中处于弱势地位,因为目前所有AI伦理的国际标准制定都没有中国大陆代表参与,长此以往将形成布鲁塞尔效应,对中国人工智能公司、产品出海构成不利。

议题三:大语言模型下文化领域的问题

ChatGPT到底是什么,在传播中扮演了何种角色?这个问题受到北京师范大学新闻传播学院教授丁汉青、中国人民大学新闻学院教授刘海龙两位专家的关注。丁汉青指出:技术是人类为了特定目的而创造出的方法和手段,因此ChatGPT实际可以视为一种技术、一种人造物。丁汉青认为,对ChatGPT的研究可从四个分析单元入手,一单元是人工智能制品的分析,探讨大语言模型在产生关系中的定位,探讨人机共生时代的新常规,侧重互动关系的建构;二单元是技术系统的分析,探讨大语言模型与人类的权力关系,分析大语言模型对人的认知模式、感知比例的影响;三单元是技术与社会的组合分析,探讨大语言模型的形塑方法;四单元是技术文化,主要重新审视人类中心的伦理观念,探讨大语言模型作为决策者的可能性与合理性。

刘海龙认为,ChatGPT一方面是一个技术,但另一方面又是人,因为ChatGPT所有的知识来自于人的知识积累。刘海龙提到,ChatGPT在知识库数据中概率抽取词语回复提问,常输出一些不痛不痒的“外交官式回答”,这些回答实际是一种知识的平均值,是以一种从众的、卸除责任的方式替代人类决策,“平均”“从众”“卸责”类似于海德格尔意义下的“常人”,却比“常人”拥有更多的知识,其回答水准超越“普通”,是全人类的平均值,因此可将ChatGPT视为一种“新常人”。刘海龙认为,ChatGPT同时构成一种大他者,不在场却又随时在场,潜在地影响着人们的思想和行为。

沈阳、刘海龙、金兼斌三位教授都认为大语言模型时代人与机器的共同生存必然影响到人的主体性与独立性。清华大学新闻与传播学院教授沈阳认为人与机器的共生存在三个阶段,第一个阶段是人的能力整体上大于机器,即人类当下所处阶段;第二个阶段是机器与人类能力接近阶段;第三个阶段是机器觉醒为硅基生命的阶段,此时人与机器的差距将被迅速拉大。刘海龙从他者消失的角度探讨了人类的主体性危机。刘海龙指出,人类与机器交流时完全以人为中心,无需顾及机器的意愿与想法,这取消了机器作为他者的可能性,使机器沦为奴隶,然而正如黑格尔所言,当奴隶完全顺从、承认、接受主人的意志时会产生一种颠覆,奴隶本身可能获得比主人更多的智力与能力。金兼斌认为,一方面大语言模型作为新技术具有一种解放功能,把白领从繁琐工作中解放,带来普惠服务(universal service),增强人的生产能力,其普世性与重要性或成为国家重要战略性资源;另一方面,当下人类已经不再处于本雅明所谓的机械复制时代,而是抵达人工智能复制时代,人类在面对人工智能时需要一种抵抗精神。金兼斌提到,电视时代人们需要抵抗沙发土豆(couch potato)的懒散状态;手机时代人们需要抵抗成为低头族;而在人工智能时代,人类应该主动追求美、创造美,保持人的独立性与尊严,拒绝成为智能技术的寄生虫。

胡泳教授则从机器发展的初衷对人机关系进行了反思,指出机器的建造的道路本存有两派观点,一派主张建造根据规则和逻辑进行推理的机器;另一派主张建造深度学习机器,让机器根据实例数据和所需输出生成看法,而这派观点正成为当下人工智能的发展道路。机器学习是一个黑盒,最简单的算法也可以触发不可预测的紧急行为,即便大科技公司的工程师也无法确切说明机器学习算法的工作方式,这必将导致不确定性大爆炸的发生。胡泳将机器中的智能喻为幽灵,他认为机器中的幽灵正逐渐达到难以琢磨和不可控制的地步,尽管人类是机器的创作者,却不是机器的主人。胡泳认为,人类是时候进行自我反思:为何制造大语言模型技术?为何把机器设计成类人的、有意图的样子。

彭兰教授关注AIGC(人工智能生成内容)对日常生活的艺术化影响。彭兰提到,过去的每一轮技术赋权都在某种意义上改变着人和艺术间的关系,例如智能手机使普通人也能完成曾被认为是高门槛的摄影创作。彭兰认为,AIGC艺术创作将在数字世界创造幻象和现实的交融空间,这些创作难分真假,对个体生存与整个社会的信息环境都将构成挑战,艺术领域里的所谓的超现实、超超现实,未来或许会成为生活的日常状态。

陆小华、赵子忠教授讨论了大语言模型时代传播学研究和学科建设将面临挑战。陆小华提到,从知识生产的角度看,人与人工智能共生时代产生新的传播主体,人工智能正在成为内容的生产者,而从政治角度看人工智能成为比一般人更有影响力的新权威,这一权威提高了专家门槛,即便跨学科者也难以辨识,这是新闻传播学过去从未遇见的事情。赵子忠对传播学的学科发展持乐观态度,认为当下新媒体教育的总体方向是正确的,Web1.0、Web2.0的教育仍有价值。赵子忠指出,多元化和多样化是人类社会最重要的方向之一,尽管人工智能潮流会对当下的学科教育产生冲击,但媒体教育一定是动态的、不断发展、不断变化主题的,新闻传播学需要找好角度与人工智能时代完成对接,发挥新闻传播学对人社会的贡献。

研究新问题

启示会结束后,北京师范大学新媒体研究中心团队将会议中所提到的66个研究问题进行了归纳、整理,并按照李克特五分量表制成问卷发放到参与讨论的学者群和计算传播学者群打分。截至2023年5月23日12点,团队共收回有效问卷35份。其中,51.42%(18人次)的应答者为“教授”职称,25.71%(9人次)的应答者为“副教授”职称,8.5%(3人次)的应答者具有“讲师”职称,另外还有2位博士后研究员和3位博士研究生参与填答。

研究团队对收回问卷数据进行因子分析发现,66个问题都呈现为一个因子。进一步研究团队将相关问题输入ChatGPT(GPT-4模型),基于机器理解来归纳、整理大语言模型时代传播研究的探索方向,结果呈现六个研究方向,模型对每个方向还做了简单归纳(见下表)。

表1:ChatGPT归纳的研究方向与学者评分情况

ChatGPT风暴来袭:学术界热议大语言模型带来的新挑战与变革

注:ChatGPT(GPT-4)所归纳研究问题较原始问题存在部分细节差异。

原文刊载于《国际新闻界》2023年第6期。

ChatGPT风暴来袭:学术界热议大语言模型带来的新挑战与变革

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

版权声明:lida 发表于 2024年4月12日 pm1:19。
转载请注明:ChatGPT风暴来袭:学术界热议大语言模型带来的新挑战与变革 | ChatGPT资源导航

相关文章