ChatGPT开启新纪元?学术巨咖共探大语言模型对传播与教育的影响——66个问题揭示未来趋势

ChatGPT与PPT 1年前 (2023) lida
39 0 0

文章主题:关键词: ChatGPT, 信息生产与流通, 伦理法规, 文化领域问题

666ChatGPT办公新姿势,助力做AI时代先行者!

本刊官方网站:

http://cjjc.ruc.edu.cn/

作者简介

张尔坤、张一潇,北京师范大学新闻传播学院博士研究生。

引言

🌟ChatGPT引领语境革命!🚀互联网生态迎来创新巨变,多轮对话与生成技术的革新正深刻重塑传播格局。于5月14日,北京师范大学新闻传播学院携手清华大学新媒体研究中心及国际知名学术期刊《国际新闻界》在北京举办了这场别开生面的“ChatGPT启示研讨会”🌟。✨汇聚顶尖学府,如北京大学、中国人民大学和北京师范大学等,二十余位业界翘楚齐聚京师大厦,深入探讨大语言模型对信息生产与流通、伦理法规及文化领域的挑战与机遇。历时一天的思想盛宴中,学者们热烈交流,共提出66个引人深思的传播学新议题。🌈这场研讨会以开放和包容为原则,旨在揭示ChatGPT时代下传播学的新趋势,为学术界提供了宝贵的洞见和未来研究的方向。🌟SEO优化词汇:ChatGPT、互联网生态、多轮对话、信息流通、伦理法规、文化领域、传播学新问题、学术研讨、大语言模型、知识探索。

研讨嘉宾

(上午场)

美国卡耐基梅隆大学计算机系博士候选人戴舒琪

北京师范大学新闻传播学院讲师李倩

北京师范大学新闻传播学院副教授刘茜

北京师范大学新闻传播学院副教授钱忆亲

北京大学新闻与传播学院研究员、助理教授苏岩

北京师范大学艺术与传媒学院博士后赵蓓

清华大学社会科学学院副教授张开平

北京师范大学新闻传播学院副院长、教授周敏(主持)

中国人民大学新闻学院讲师张伊妍

北京师范大学新闻传播学院讲师、助理教授朱毅诚

研讨嘉宾

下午场

北京师范大学新闻传播学院副院长、教授丁汉青

北京师范大学新闻传播学院党委书记、研究员方增泉

北京大学新闻与传播学院教授胡泳

清华大学新闻与传播学院教授、院学术委员会主任金兼斌

中国人民大学新闻学院教授、传播系主任刘海龙

天津大学新媒体与传播学院院长、讲席教授陆小华

中国人民大学新闻学院教授彭兰

清华大学新闻与传播学院教授沈阳

北京师范大学新闻传播学院教授、计算传播学研究中心主任吴晔

北京师范大学新闻传播学院教授喻国明

北京师范大学新闻传播学院教授、新媒体研究中心主任张洪忠(主持)

中国传媒大学新媒体研究院院长、教授赵子忠

🎓由教育界的重量级人物周敏教授引领,上午场的讨论高潮迭起!北京师范大学的计算传播学权威——吴晔教授,用他独特的视角剖析了ChatGPT的核心技术——一套巧妙的“四步走”策略。👩‍🏫首先,ChatGPT的‘文字连环’生成模式就像一场文字游戏,通过统计学习预测文本序列,看似聪明却未能真正理解问题的精髓。🔥然后,它用第二板斧巧妙地引导答案路径,仿佛在指引对话的方向。💡接下来,是人工标注的答案作为模型训练的重要一环,数据反馈让模型不断进化。📊最后,强化学习就像模型的深度定制,通过与用户的互动,模型持续优化,生成更贴近需求的回答。🚀ChatGPT的技术逻辑,每一斧都精准且深邃,让人不禁对这个AI语言巨擘刮目相看!🏆

🌟【深度解析ChatGPT与大语言模型】🚀下午,由新媒体研究领域的权威张洪忠教授引领,我们深入探讨了ChatGPT的技术魅力。周敏教授的汇报揭示了上午讨论的亮点——ChatGPT凭借其开放域多轮对话和生成式文本技术,实现了技术上的重大突破,为互联网交互带来了革命性变革。🚀首先,张教授强调了这两个关键特性:一、打破传统问答束缚,适应复杂场景,预示着人机互动的新纪元;二、生成式路径的创新,如同游戏接龙般流畅,将自然语言处理提升到更贴近人类沟通的层次。💬🔍ChatGPT只是大语言模型技术冰山一角,未来的发展潜力无限。国内各大企业如百度、阿里、腾讯、华为和字节跳动等,以及清华大学等学术机构纷纷涉足,展现出对这一领域的热切关注与技术创新。🔥💡接下来,互联网竞争将面临四个关键转向:大模型是否成为门槛?算力竞赛的主导地位如何?云端之战是否会成为主流?以及对话能否真正成为平台的核心竞争力?我们期待着这些趋势的演变和新挑战的解答。🔍🎯#ChatGPT #大语言模型 #互联网未来

大语言模型时代传播学研究新问题讨论

议题一:大语言模型下信息生产与流通领域的问题

🌟四位顶尖学术专家,如清华大学金兼斌教授、美国卡耐基梅隆大学戴舒琪博士候选人、中国人民大学张伊妍讲师及北京师范大学赵蓓博士后,聚焦于大语言模型的算力垄断议题。💡他们指出,训练如此庞大模型所需的海量计算资源构成了一道高门槛,限制了学术界对其深入研究的步伐,未来可能仅少数大型企业和机构能引领前沿技术。从信息生产层面看,算力垄断可能导致市场集中,削弱多样性。📝张伊妍强调,这可能导致价值垄断风险的增加,特别是当大模型应用于新闻生产和传播时,其潜在的价值偏见和刻板印象可能会被放大。因此,若要将大语言模型用于新闻制作,透明度至关重要,并要求新闻从业者对技术有深入理解。🔍赵蓓对此提出疑问:随着技术迭代升级,高昂的算力成本是否会引发国际竞争?对此,金兼斌认为,国际竞争在所难免,他同时指出先发优势的重要性,强调了抢占战略资源的紧迫性,以避免“马太效应”下的赢家通吃局面。🌐

🌟北京大学新闻与传播学院的两位专家苏岩和张伊妍,就大模型对知识鸿沟的影响进行了深入探讨。每一轮科技革新都伴随着知识分配不均的问题——是缩小还是扩大了知识的“数字鸿沟”?🤔苏岩教授认为,从生产层面看,权力结构似乎在加剧这一鸿沟,因为那些信息资本丰厚的人群依然主导着知识的创造和传播。📈然而,张伊妍助理教授持有不同见解,她坚信大语言模型有可能成为打破壁垒的力量,推动知识民主化。🌍比如,对于老年人来说,使用自然语言获取信息而非依赖搜索引擎,能有效降低获取成本,这是一个积极的趋势。💻ChatGPT在编程学习中的普及也反映出技术鸿沟在逐步缩小,它为更多人提供了平等的学习机会。📚总的来说,大模型带来的挑战与机遇并存,如何平衡和利用以缩小知识鸿沟,是未来需要深入研究的议题。🤔

🌟彭兰教授警示,AIGC的崛起可能导致真假难辨的信息泛滥,对个体与社会构成挑战,引发大众对于AI内容真实性的深度思考。🎓陆小华教授质疑,用大模型检测大模型的方法可能陷入逻辑误区,如何判断机器生成内容的合规性是个复杂问题。🤔张开平副教授关注ChatGPT跨文化语境下的虚假信息传播,不同文化背景下的认知差异可能导致信息解读上的争议。📝苏岩副教授强调媒介素养的重要性,它能帮助人们抵御虚假信息,构建知识体系。🤖赵蓓担忧社交机器人可能利用大语言模型生成极具迷惑性的内容,潜在地进行舆论操纵,多级传播的威胁不容忽视。🎓李倩讲师关注社交机器人与大语言模型结合后的识别难题,机器人的行为复杂性挑战现有识别系统。🔍吴晔回应,虽然存在挑战,但通过不断的技术创新和算法升级,社交机器人识别有望保持领先。📝戴舒琪则对此持有保留态度,未来的发展仍需谨慎应对。

其四,北京师范大学新闻传播学院教授喻国明、中国传媒大学新媒体传播研究院教授赵子忠、北京师范大学新闻传播学院研究员方增泉、北京师范大学新闻传播学院副教授刘茜、北京师范大学新闻传播学院助理教授朱毅诚、李倩、赵蓓还谈到了大语言模型在信息生产过程中的潜在影响。喻国明认为,大模型是一个“出道即巅峰”的现象级媒介,对人类社会的影响越来越深刻和全面。赵子忠提出问题:大语言模型如何变革信息聚合和信息分享模式?刘茜指出:在大语言模型的背景下,应当更多去思考技术对于社会公众的自信或者自我效能的影响是怎么样的?尤其是当前正处于过渡阶段,不同群体对技术可能有不同的反应。朱毅诚接着这个话题谈到:我主要考虑了两个方面的问题,第一是ChatGPT作为内容创作过程中的工具、对话对象,这种“联合信息生产”或者说“信息共建”的能力和结果的差异性研究是值得关注的;第二是内容强依赖行业,如新闻、教师、营销等行业的培养和行业组织内部的沟通和关系重构的问题。另外两位学者李倩、赵蓓都提到了信息产生过程中的人机交互问题,李倩更侧重于大语言模型对虚拟现实(VR)人机交互的影响,赵蓓则更关注大语言模型对人机交互(UI)可能带来的改变。最后,北师大新闻传播学院党委书记、研究员方增泉对大模型训练语料不对称、不平等的问题提出了担忧。

议题二:大语言模型下伦理法规领域的问题

随着人与大语言模型创作边界逐渐模糊,模型透明度对受众的影响引起了北京大学新闻与传播学院教授胡泳、张伊妍、赵蓓等学者的关注。胡泳指出:任何机器学习技术的工作原理一定比手工编码系统更不透明,甚至科技公司的工程师也很难确切地说明算法的工作方式,这种不确定性的叠加可能会在未来某个时间节点产生不确定性的“爆炸”。张伊妍基于人机共创背景谈到:当人接到一个创作任务,把创作目的转换为大语言模型的输入指令并对输出结果进行适当修改的过程中,人机已经融合并形成一种赛博格(cyborg)的创作效果,这导致人与大语言模型创作边界的模糊。透明度问题的重点在于将自主权留给受众(keep them informed),通过百分比方式呈现人与大语言模型双方对内容的贡献比例。赵蓓认为可以将透明度问题细化为算法透明度、数据透明度、使用透明度三个组成部分。在算法透明度上,一些大型语言模型如GPT-3的算法已经公开,人们可以通过学习模型的内部机制和参数了解其工作方式,并据此分析模型生成内容的偏见和错误,但GPT-3之后OpenAI、谷歌不再公开算法,透明度的降低可能会影响大语言模型的未来发展;在数据的透明性方面,大语言模型的训练数据通常是不公开的,整个决策过程往往是一个黑箱;在使用透明度上,赵蓓指出在使用大语言模型之前,应先制定规范使用透明度标准,避免陷入被动的“使用—检测”竞争之中。

其二,戴舒琪、苏岩等学者提出ChatGPT使用中的隐私保护的问题。戴舒琪以患者就医为例指出,医生输入患者信息并利用ChatGPT为患者开具自动病历的过程中,患者信息会被传输至美国OpenAI公司的服务器上,如何保护患者个人隐私将成为新的问题。苏岩认为,ChatGPT带给人的即时性便捷是仅仅是一种表象,长此以往的后果可能是“数字利维坦”的出现,届时个人隐私数据变为公开信息。赵蓓提到,目前基于大语言模型开发的聊天机器人已能够根据大量聊天记录合成虚拟用户,这一虚拟用户类似于真人用户的数字化身,与虚拟用户的对话可能导致真人用户的隐私泄露。

其三,喻国明和陆小华两位教授认为大语言模型将对社会治理逻辑产生革命性影响。喻国明指出:从古至今人类社会的政治、经济、文化都属于精英治理模式,而技术对于人类社会最大的颠覆在于人类平等性的增强,拉平人与人之间的差距,打破精英和大众之间的壁垒,削弱精英赋权的基础,这将对未来包括传播在内的整个社会治理、运作产生重大甚至根本性的影响。同时,人类增强可能导致精英治理的“黄昏”。在技术的加持下,人类可以从自然版本的身心结构发展到更聪明、更长寿也更符合人性的后人类结构,这一增强使人的差距骤然缩小,这是技术最重大的社会影响。这一影响可能从两个角度来改变未来的发展趋势,一是将人的体能、智能与领袖能力均值化,精英治理彻底变成所谓的庸众治理,但这种情况发生的可能相对细微。更大的可能在于人类增强技术无法拉平人的差距,精英治理会以弱形式长期存在,形成一种新型的普遍强人治理,将精英治理改头换面保持下去。社会治理机制与逻辑的过渡、转变将是面对未来的重大问题。陆小华认为,大语言模型已经在重构社会规则,第一层表现为法律治理规则的重构,互联网、数字技术等相关法律将被改写;第二层表现为传播主体的重构,大语言模型将成为新兴内容生成主体,让社会进入人机共生时代。

其四,北京师范大学新闻传播学院副教授钱忆亲提出了AI伦理法规制的落地问题。钱忆亲指出:关于AI伦理法规学界已讨论多年,当下相关探讨已度过达成某种标准或共识的阶段,进入到实施阶段,即如何把AI伦理落地的阶段。目前国际社会关于AI伦理的探讨仍然比较抽象化、概念化,中国的AI伦理法规如何落地是学界亟需关注的问题。另外,中国大陆在AI伦理的国际标准制定中处于弱势地位,因为目前所有AI伦理的国际标准制定都没有中国大陆代表参与,长此以往将形成布鲁塞尔效应,对中国人工智能公司、产品出海构成不利。

议题三:大语言模型下文化领域的问题

ChatGPT到底是什么,在传播中扮演了何种角色?这个问题受到北京师范大学新闻传播学院教授丁汉青、中国人民大学新闻学院教授刘海龙两位专家的关注。丁汉青指出:技术是人类为了特定目的而创造出的方法和手段,因此ChatGPT实际可以视为一种技术、一种人造物。丁汉青认为,对ChatGPT的研究可从四个分析单元入手,一单元是人工智能制品的分析,探讨大语言模型在产生关系中的定位,探讨人机共生时代的新常规,侧重互动关系的建构;二单元是技术系统的分析,探讨大语言模型与人类的权力关系,分析大语言模型对人的认知模式、感知比例的影响;三单元是技术与社会的组合分析,探讨大语言模型的形塑方法;四单元是技术文化,主要重新审视人类中心的伦理观念,探讨大语言模型作为决策者的可能性与合理性。

刘海龙认为,ChatGPT一方面是一个技术,但另一方面又是人,因为ChatGPT所有的知识来自于人的知识积累。刘海龙提到,ChatGPT在知识库数据中概率抽取词语回复提问,常输出一些不痛不痒的“外交官式回答”,这些回答实际是一种知识的平均值,是以一种从众的、卸除责任的方式替代人类决策,“平均”“从众”“卸责”类似于海德格尔意义下的“常人”,却比“常人”拥有更多的知识,其回答水准超越“普通”,是全人类的平均值,因此可将ChatGPT视为一种“新常人”。刘海龙认为,ChatGPT同时构成一种大他者,不在场却又随时在场,潜在地影响着人们的思想和行为。

沈阳、刘海龙、金兼斌三位教授都认为大语言模型时代人与机器的共同生存必然影响到人的主体性与独立性。清华大学新闻与传播学院教授沈阳认为人与机器的共生存在三个阶段,第一个阶段是人的能力整体上大于机器,即人类当下所处阶段;第二个阶段是机器与人类能力接近阶段;第三个阶段是机器觉醒为硅基生命的阶段,此时人与机器的差距将被迅速拉大。刘海龙从他者消失的角度探讨了人类的主体性危机。刘海龙指出,人类与机器交流时完全以人为中心,无需顾及机器的意愿与想法,这取消了机器作为他者的可能性,使机器沦为奴隶,然而正如黑格尔所言,当奴隶完全顺从、承认、接受主人的意志时会产生一种颠覆,奴隶本身可能获得比主人更多的智力与能力。金兼斌认为,一方面大语言模型作为新技术具有一种解放功能,把白领从繁琐工作中解放,带来普惠服务(universal service),增强人的生产能力,其普世性与重要性或成为国家重要战略性资源;另一方面,当下人类已经不再处于本雅明所谓的机械复制时代,而是抵达人工智能复制时代,人类在面对人工智能时需要一种抵抗精神。金兼斌提到,电视时代人们需要抵抗沙发土豆(couch potato)的懒散状态;手机时代人们需要抵抗成为低头族;而在人工智能时代,人类应该主动追求美、创造美,保持人的独立性与尊严,拒绝成为智能技术的寄生虫。

胡泳教授则从机器发展的初衷对人机关系进行了反思,指出机器的建造的道路本存有两派观点,一派主张建造根据规则和逻辑进行推理的机器;另一派主张建造深度学习机器,让机器根据实例数据和所需输出生成看法,而这派观点正成为当下人工智能的发展道路。机器学习是一个黑盒,最简单的算法也可以触发不可预测的紧急行为,即便大科技公司的工程师也无法确切说明机器学习算法的工作方式,这必将导致不确定性大爆炸的发生。胡泳将机器中的智能喻为幽灵,他认为机器中的幽灵正逐渐达到难以琢磨和不可控制的地步,尽管人类是机器的创作者,却不是机器的主人。胡泳认为,人类是时候进行自我反思:为何制造大语言模型技术?为何把机器设计成类人的、有意图的样子。

彭兰教授关注AIGC(人工智能生成内容)对日常生活的艺术化影响。彭兰提到,过去的每一轮技术赋权都在某种意义上改变着人和艺术间的关系,例如智能手机使普通人也能完成曾被认为是高门槛的摄影创作。彭兰认为,AIGC艺术创作将在数字世界创造幻象和现实的交融空间,这些创作难分真假,对个体生存与整个社会的信息环境都将构成挑战,艺术领域里的所谓的超现实、超超现实,未来或许会成为生活的日常状态。

陆小华、赵子忠教授讨论了大语言模型时代传播学研究和学科建设将面临挑战。陆小华提到,从知识生产的角度看,人与人工智能共生时代产生新的传播主体,人工智能正在成为内容的生产者,而从政治角度看人工智能成为比一般人更有影响力的新权威,这一权威提高了专家门槛,即便跨学科者也难以辨识,这是新闻传播学过去从未遇见的事情。赵子忠对传播学的学科发展持乐观态度,认为当下新媒体教育的总体方向是正确的,Web1.0、Web2.0的教育仍有价值。赵子忠指出,多元化和多样化是人类社会最重要的方向之一,尽管人工智能潮流会对当下的学科教育产生冲击,但媒体教育一定是动态的、不断发展、不断变化主题的,新闻传播学需要找好角度与人工智能时代完成对接,发挥新闻传播学对人社会的贡献。

研究新问题

启示会结束后,北京师范大学新媒体研究中心团队将会议中所提到的66个研究问题进行了归纳、整理,并按照李克特五分量表制成问卷发放到参与讨论的学者群和计算传播学者群打分。截至2023年5月23日12点,团队共收回有效问卷35份。其中,51.42%(18人次)的应答者为“教授”职称,25.71%(9人次)的应答者为“副教授”职称,8.5%(3人次)的应答者具有“讲师”职称,另外还有2位博士后研究员和3位博士研究生参与填答。

研究团队对收回问卷数据进行因子分析发现,66个问题都呈现为一个因子。进一步研究团队将相关问题输入ChatGPT(GPT-4模型),基于机器理解来归纳、整理大语言模型时代传播研究的探索方向,结果呈现六个研究方向,模型对每个方向还做了简单归纳(见下表)。

表1:ChatGPT归纳的研究方向与学者评分情况

ChatGPT开启新纪元?学术巨咖共探大语言模型对传播与教育的影响——66个问题揭示未来趋势

注:ChatGPT(GPT-4)所归纳研究问题较原始问题存在部分细节差异。

原文刊载于《国际新闻界》2023年第6期。

ChatGPT开启新纪元?学术巨咖共探大语言模型对传播与教育的影响——66个问题揭示未来趋势

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章