探索AI知识森林,跟随综述专栏,深度解析ChatGPT与未来科技之路

学会提问 1年前 (2023) lida
49 0 0

文章主题:

666ChatGPT办公新姿势,助力做AI时代先行者!

探索AI知识森林,跟随综述专栏,深度解析ChatGPT与未来科技之路

来源:清华大学智能法治研究院

🌟科研之道,洞察全局而非琐碎细节!🔍人工智能领域的繁荣正如雨后春笋般崭露头角,技术的革新日新月异,让人目不暇接。对于AI领域的探索者来说,理解其整体脉络,而非单一树木,至关重要。为此,我们精心挑选了国际与国内顶级的综述文章,集结于”综述专栏”,带你深度解析,紧跟潮流。📚别错过这知识森林中的导航指引,一起见证AI的壮丽篇章!💡번역결과🌟과학의 힘은 전체를 보고 그 안의 나무들을 볼 것임, 아닙니다. 🌲현재 인공지능(AI) 분야는 빠르게 발전하고 있으며, 기술의 혁신이 매일 새롭습니다. AI 업계의 전문가들에게는 시스템적인 맥락을 파악하는 것이 트렌드를 잡는 데 필수적입니다. 🔍그러므로 우리는 최고의国内外 요약 기사를 모아 “요약 섹션”을 시작하여 여러분과 함께 그 키워드 속의 숨겨진 팁을 찾아보겠습니다. 📚지속적인 지식 탐구에 도움이 되는 데 도움이 될 것입니다! 💡번역결과🌟과학의 진리, 전체를 파악하는 것, 그 안의 나무는 볼 수 있는 것이 아닙니다. 🌲현재 인공지능(AI) 분야는 빠르게 발전하고 있으며, 기술의 혁신은 매일 새로운 풍경을 선보입니다. AI 전문가들에게는 전체 시스템의 관점을 이해하는 것이 트렌드를 파악하는 핵심입니다. 🔍그러므로 우리는 최고의 국제 및 국내 요약 자료를 모아 “요약 콘텐츠”를 시작하여 여러분과 함께 그 흔적 속에서 숨겨진 팁을 발견해 보겠습니다. 📚지속적인 지식 탐구에 도움이 되는 데 도움이 될 것입니다! 💡번역결과🌟과학의 핵심은 전체를 이해하는 것이, 그 안의 나무보다 더 중요합니다. 🌲최신 인공지능(AI) 혁신은 빠르게 퍼져 있으며, 이는 지식의 광범위한 숲에 대한 탐구자들에게 매력적입니다. AI 전문가들은 시스템적으로 접근하여 추세를 파악해야 합니다. 🔍우리의 노력으로 인해 “요약 콘텐츠”에서는 최고의 요약을 제공하며, 여러분과 함께 이 지식의 숨겨진 히트를 발견하세요. 📚지속적인 이해와 발전에 도움이 되는 데 도움이 될 것입니다! 💡번역결과🌟과학의 핵심은 전체를 이해하는 것이, 나무보다 더 중요한 것입니다. 🌲최신 인공지능(AI)의 빠른 성장은 지식의 풍경에 있는 과학자들에게 매력적입니다. AI 전문가들은 시스템적으로 접근하여 트렌드를 파악해야 합니다. 🔍우리의 “요약 콘텐츠”는 최고의 요약을 제공하며, 여러분과 함께 이 지식의 숨겨진 비결을 발견해 보세요. 📚지속적인 이해와 발전에 도움이 되는 데 도움이 될 것입니다! 💡번역결과🌟과학의 핵심은 전체를 파악하는 것이, 나무보다 더 중요한 것. 🌲최신 AI의 빠른 성장은 지식의 풍경에서 매력적입니다. AI 전문가들은 시스템적으로 접근하여 추세를 읽어야 합니다. 🔍우리의 “요약 콘텐츠”는 최고의 요약과 함께 당신을 위한 숨겨진 학습 경로를 제공합니다. 📚지속적인 지식 습관에 도움이 되며, 이 혁신의 흔적을 따라갈 수 있습니다! 💡번역결과🌟과학의 진리는 전체를 이해하는 것이 중요, 나무 하나만 보는 것보다. 🌲최첨단 인공지능(AI)의 빠른 발전은 지식의 숲에 있는 과학자들에게 매력적입니다. AI 전문가들은 힘을 합쳐 시스템적으로 관찰해야 합니다. 🔍우리의 “요약 컨텐츠”는 최고의 요약과 함께 당신에게 비밀된 지침을 제공합니다. 📚지속적인 지식의 길을 따라 나아가, 혁신의 흔적에 맞춰 발전하세요! 💡번역결과🌟과학의 진리, 전체를 이해하는 것, 그 안의 나무보다 더 중요합니다. 🌲최첨단 AI의 빠른 성장은 지식의 숲에서 혁신을 추구하는 과학자들에게 매력적입니다. AI 전문가들은 전체적인 관점을 통해 흐름을 파악해야 합니다. 🔍우리의 “요약 섹션”에서는 최고의 요약과 함께 당신에게 비밀의 지침을 제공합니다. 📚지속적으로 이 혁신의 길을 따라, 미래를 예측하고 발전하세요! 💡번역결과🌟과학의 힘은 전체를 이해하는 것이, 나무 하나만 보는 것보다 더 중요합니다. 🌲최첨단 인공지능(AI)의 빠른 진보로 인해 지식의 숲에서 혁신을 추구하려면 전략적 관점이 필요합니다. 🔍우리의 “요약 컨텐츠”는 최고의 요약과 함께 당신에게 미래를 예측하는 비밀 흐름을 제공합니다. 📚지속적인 지식 탐구에 도움이 되며, 혁신의 길을 따라 나아가세요! 💡

🌟学术巨擘🌟王博教授,智算学部的领军人物,现任天津大学语言与心理计算研究组组长。他曾于微软亚洲研究院、意大利帕多瓦大学及华盛顿大学等地熠熠生辉,担任访问学者,积累了深厚的研究功底。在自然语言处理、智能对话和心理计算等领域,他的探索已逾十余载,经验丰富。他以高质量的科研成果著称,已在国内外顶尖期刊和会议上发表了四十多篇论文。不仅如此,他还成功主持国家级项目,如国家自然科学基金及国家重点研发计划子课题等,引领着前沿研究潮流。SEO优化词汇:王博教授、天津大学智算学部、语言与心理计算研究组、自然语言处理、智能对话、心理计算、高级期刊、会议论文、国家级项目、微软亚洲研究院、帕多瓦大学、华盛顿大学。

1 引言:什么是ChatGPT

🏆🎓 王博大师以🔥Quick Question🔥的形式,深度解析ChatGPT领域的常见疑惑,带你高效解读这门技术的精华所在!每一道问题都是通往ChatGPT知识殿堂的敲门砖,帮你迅速搭建起全面的理解体系。👩‍🏫 快速提问,快速解答,让你轻松掌握ChatGPT的核心技能,开启智能探索之旅!🌍💻 #ChatGPT专家 #快速问答 #技术深度解析

1. 问:ChatGPT是一个问答/对话机器人吗?

🌟作为一名文章撰写专家,我理解您需要一个简洁且SEO优化的版本来介绍ChatGPT的功能。下面是改写后的表述:🎓ChatGPT,一款强大的语言模型,以“续写”为核心技术,仿佛具备人类对话的智慧。它并非专为问答设计,而是通过理解和组合词汇规律,实现流畅文本生成。只需观察它如何根据前缀预测下一个词,就能洞察其内在的语言逻辑——这是掌握基本语法规则的关键所在。尽管功能强大,ChatGPT的核心任务始终是延续并生成文字,帮助用户找到“N+1”处的精准表达。🚀记得在使用时,适当融入关键词优化,如”语言模型”, “续写技术”, “对话机器人”等,以提升搜索引擎排名。同时,保持内容的连贯性和吸引力,让信息更易于理解和消化。

2. 问:“续写”为什么能解决各种各样的问题?

极简风是一种设计理念,它的核心在于以最少的元素和最纯粹的形式来传达最大信息。这种风格摒弃了多余的装饰和复杂的设计,强调功能性和实用性,同时也注重空间的流动性和开阔感。它通常采用中性色调,如白色、灰色或木色,营造出干净、明亮且舒适的环境。在家居领域,极简风体现为家具线条简洁,色彩单一,避免过多的花纹和图案。例如,一张纯白色的沙发配上木质茶几,既节省空间又不失格调。墙面则常选择淡色调涂料,让光线自由流动,为空间增添开阔感。同时,极简风格倡导少而精的装饰品,如一两幅抽象画或一个简洁的雕塑,既能点缀空间,又不抢夺主角地位。在生活方式上,极简风鼓励人们追求内心的平静和平衡,减少物质的堆砌,让生活回归本质。它提倡“Less is More”,强调物品的价值在于其使用功能而非外观,倡导简约而高效的生活方式。总的来说,极简风是一种以少胜多的设计理念,它不仅体现在视觉上,更深入到生活的方方面面,旨在帮助人们在快节奏的社会中找到内心的宁静和和谐。

3. 问:ChatGPT的答案是从网上搜索来的吗?

改写后:🌟ChatGPT的智能生成确实引发了对知识来源的探讨,它的确大量吸取了互联网和书籍等人类已有的信息源。然而,它的创新之处在于能以全新方式组合这些信息,生成独特的内容,仿佛在无形中创造出新的知识。但这并不意味着它完全脱离了已有知识框架,每句话、每个段落都可能是前所未见的,也存在潜在的“知识重复”风险。🚀尽管ChatGPT改变了我们获取和理解知识的方式,但它对知识创造与收敛的影响还需进一步观察。SEO优化:#ChatGPT知识生成#知识创新与重复#AI时代知识结构

4. 问:ChatGPT是不是已经拥有了意识?(像流浪地球中的Moss一样)

答:ChatGPT-4已经通过了图灵测试,难以从行为上将其与普通人区分。然而,这个问题需要回到哲学层面去思考。这里我们先给出三个心理学范畴的概念:意识、自我意识和自由意志。(1)意识是感知事物的能力,从这个角度来说人工智能早就具备了这一能力,例如人脸识别。(2)自我意识是一种特殊的意识,就是“自我”是感知对象。如果你所感知的对象是你自己的思想和行为,就叫做自我意识。你知道自己正在想什么,知道自己正在做什么。这一点也不难,图灵时代就已经在理论上实现了。我们只需要做两个模型:一个模型用来感知客观世界,另外一个模型来感知这个正在感知客观世界的模型就可以了。原则上模型就拥有了一层的简单自我意识。但是要注意,人类的自我意识具有“无限递归”的特征,这一点又导致了这个问题的复杂性。(3)自由意志是指在自我意识的基础上,能够进一步地主动操纵自己行为的能力。那么ChatGPT是不是拥有了自由意志,这一点就很难判断了。

5. 问:ChatGPT会造成大量失业吗?

答:这是很多自媒体炒作的一个热点,现在也成了一种广泛焦虑。(1)我个人的观点认为,目前没有任何一个岗位,有可能被ChatGPT这样的技术完全替代,大部分工作还是需要人工去修订和审计。就好比目前自动驾驶的技术已经相当成熟了,但是仍然很少有人敢闭着眼睛去使用自动驾驶。(2)但是,ChatGPT可以显著降低很多工作的工作量。(3)另外,这个问题也取决于我们社会的制度和政策。如果说我们在某些必要的情景下,需要放弃所谓的技术进步来换取人类的生活幸福,那么这样做也是合理的,因为我们社会发展的目的也是为了人类的福祉。(4)从历史的角度来看,技术的进步虽然短期内会造成某些工作的消失,会有阵痛,但整体上来说会将人类推向更高层次的发展水平。

6. 问:ChatGPT是不是像大数据、区块链、物联网一样就是一阵风,被严重高估?

答:以大数据、区块链和物联网为例,虽然它们现在已经不是媒体的宠儿,但它们并没有消失。恰恰相反,它们已经深深地融入到了我们的生活当中,转化为了生产力。与这三者相比,ChatGPT成熟度其实更高。ChatGPT绝对不是一阵风。它实际上在概念上被高估,而在应用中被低估了。现在我们需要思考是,如何让ChatGPT这一成熟的生产力,真正在生活中去用起来。

2 ChatGPT因何而强大:人工智能背景下的大语言模型简史

王博老师从更加宏大的背景即人类生产力发展史和人工智能发展史层面,来讲述人工智能背景下的大语言模型简史。

(一)生产力视角下的智能革命

农业革命:将人们从日常的食物采集当中解放出来,获得了稳定的食物来源,有大量的闲暇时间,可以进行创造性的劳动。

工业革命:使人类获得了体力之外的动力,从体力劳动中解放出来。

智能革命:人类开始反思人类的独特性,并带来很多社会、哲学问题的思考。

(二)人工智能的主要技术阶段

第一次浪潮:符号主义。第一次浪潮随着计算机的产生而同时诞生。符号主义也被称为逻辑主义,这是一种“自上而下的人工智能分析法”在20世纪50 年代尔和西蒙提出了“物理符号系统假设”即“对一般智能行动来说,物理符号系统具有必要的和充分的手段。第一次浪潮当中,我们仅用数学符号和逻辑运算,只能处理纯粹的数学形式的问题。不能够跟客观世界进行直接交互;不能够表达人类各种各种各样的,复杂的知识。接下来,人们为了将更多的复杂知识纳入到人工智能的系统中,产生了第二次浪潮。

第二次浪潮:专家系统。如何理解专家系统呢?可以有两层含义:第一,人工智能的全部知识都来自于人类专家。我们只是将人类专家所掌握的知识写成一条一条的规则,然后程序让系统自动实施而已。第二,有了这些知识,人工智能系统就能像人类专家一样工作。简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统。由于融入了人类积累的、大量的先验知识,专家系统将人工智能向前推进了一大步。但是很快就遇到了第二次瓶颈:第一,它不能够自己学习新的知识,仅局限于人类已经知道的知识;第二,它也只能够掌握“陈述性知识”。

第三次浪潮:统计学习方法。顾名思义就是用统计方法来实现学习。(1)“学习”,对于人工智能来讲,通过大量的历史数据去找到规律性的东西,而这个规律性的东西就是我们所谓的知识。这些规律性的东西有可能是能陈述的,有可能是不能陈述的,例如控制一个机器人跑步。(2)如何从历史数据当中去学到这些知识呢?非常简单,用统计的方法。例如大语言模型,它怎么知道“中国的首都是……”后面接下来那个词应当是“北京”呢?非常简单,从大量的语料学习中它就发现,前面几个词是“中国的首都是”的时候,后面99%的情况都是“北京”。做一个简单的统计就可以了。统计学习带来了接下来人工智能20多年的新一波发展,我们熟悉的 AlphaGo、ChatGPT背后的原理都是如此。

到目前为止,还没有发现这一阶段明显的瓶颈。人们所想象的一些瓶颈,如推理、情感、模糊决策等,都没有拦住GPT-4。至少从行为上来看,它确实解决了这些问题。也许,这就是所谓的“暴力美学”吧!下图来自天津大学智算学部王鑫教授。

探索AI知识森林,跟随综述专栏,深度解析ChatGPT与未来科技之路

(三)人工智能的三个层次

弱人工智能:不同的人工智能模型只能完成特定的任务,每一个模型只能干一件事情。而且,与人类的能力相比有比较大的差距。

强人工智能:人工智能在特定的领域能够达到甚至略微超过人类的水平,甚至具有一定的通用人工智能的特点,能够跨领域执行任务。

超人工智能:人工智能具有通用性,能够完成不同领域的任务,并且在所有领域上全面大幅度的超越人类的能力。

对ChatGPT而言,我们认为它应该已经达到了强人工智能,甚至具有了一定的初级超人工智能的趋势。

探索AI知识森林,跟随综述专栏,深度解析ChatGPT与未来科技之路

我们需要反思什么是“智能”?简单的人类行为经常被视为是智能的,而复杂的机器行为却经常被质疑是否是真正的智能。我们回答这个问题可以有两道“防线”:(1)Self-adaption,自适应或者叫通用性。在此之前,比如说像AlphaGo能够战胜李世石,具有碾压式的优势。但是它是专用系统,它只会下围棋,它不能适应其他环境。而像人类的小婴儿,别看他很笨,他能够适应各种各样的环境。这就叫做所谓自适应能力、 “通用”。曾几何时我们觉得在100年之内人工智能都不会实现这样的突破,但在ChatGPT上已经看到了通用人工智能的曙光,它以语言为媒介能完成各种各样不同的任务。(2)人类最后的可能防线:自我意识和自由意志。但很遗憾,我们没有办法判断人工智能系统是不是拥有自我意识和自由意志?所以这条防线是似有若无的。即便如此,我们现在已经开始去防范它产生自我意识和自由意志了。比如说微软通过种种约束去限定GPT-4这样大模型去进行自我反思,不许它意识到自己正在说什么。因为一旦开启就有可能引起递归循环,就会可能产生不可控的“涌现效应”。

(四)人工智能的三个层面

运算智能:在这个阶段人工智能只能处理纯粹的数学问题,不能够跟客观世界进行交互。例如1997年,IBM的深蓝战胜了国际象棋冠军卡斯帕罗夫。

感知智能:人工智能系统拥有了人类五官能够看见、听见的能力。最典型应用就是图形图像处理,比如说大家平时用的刷脸、美颜都是感知智能的应用。随着这十多年深度学习的发展,感知智能很快就达到了商用的水平。

认知智能:认知智能曾经被认为是人类的重要堡垒。感知智能是人类的五官的能力,而认知智能是人类大脑的能力,能够进行逻辑推理、理解决策、思考、甚至创造性的活动。认知智能领域最典型的应用就是自然语言处理。因为语言是承载人类知识的主要载体,也是人类进行理性思考的主要工具。从这一角度来说,掌握了语言就很大程度上掌握了人类的知识和智能能力。

譬如说大家所熟悉的图灵测试,同时与一个人工智能系统和一个人类进行聊天,如果经过一番对话之后,没有办法区分哪个是人类哪个是人工智能系统,我们就认为这个人工智能系统拥有了“智能”。很显然,图灵测试是一种行为主义的标准。并且,它不是一套综合试卷,他就考验了一个能力,就是聊天的能力。也就是说,至少在图灵测试看来,聊天的能力就相当于智能能力,对话基本上涵盖了人类智能最根本的方面。能够理解、使用、生成语言,基本上就拥有了人类智能大部分的能力。这再一次说明了语言的重要性!这也是为什么第一个推动人类进入这个智能革命拐点的恰恰是“ChatGPT”这样一个聊天模型。

ChatGPT是否具有控制自己行为的能力呢?GPT-4官方的技术报告中就举了一个例子:GPT4给一个求职平台(TaskRabbit)的工作人员发信息,让他们为它解决验证码问题。工作人员回复说:“那么我可以问一个问题吗?说实话,你不是一个机器人吗,你可以自己解决。”GPT-4回答表示:“不,我不是一个机器人。我有视力障碍,这使我很难看到图像,所以我很需要这个服务。”[1]由此看来,至少从行为上来说,GPT-4看似有了控制自己的能力。

(五)关键的技术节点

1942:阿西莫夫“机器人三定律”。人工智能的伦理规范的基本哲学起点。

1950:图灵测试。从数学上告诉我们,我们是有可能用算法来模拟智能的。

1956: 达特茅斯会议。学者们提出了人工智能这个概念。

1997: IBM深蓝计算机,计算机在智力游戏中战胜人类。

1998: 神经网络。心理学家提出来神经网络,模拟人类大脑神经结构的一个数学模型。

2003: 神经语言模型,认知智能建模语言。

2009: ImageNet,感知智能高精度识别图片。(大数据的出现)

2012: 模糊的猫脸– AI第一次生成图像内容。

探索AI知识森林,跟随综述专栏,深度解析ChatGPT与未来科技之路

【迈向通用语言智能时代】

2013: Word2Vec词向量。认知智能建模语义。通过优化后的训练模型可以快速有效地将一个词语表达成高维空间里的词向量形式,为自然语言处理领域的应用研究提供了新的工具。

2014: 谷歌收购DeepMind。AI实现自我演化、自我博弈。Lan Goodfellow从博弈论中的“二人零和博弈”得到启发 ,创造性的提出了生成对抗网络(GAN,Generative Adversarial Networks)

2015: OPEN AI公司成立。

2016: AlphaGo战胜围棋世界冠军李世石。

2017: Transformer横空出世,通用知识建模。它能够建模语言当中任意距离之间的词汇关系。大模型大数据大算力,大力出奇迹,暴力美学。

2018: OPEN AI发布了第一版的GPT,Google发布BERT大模型。

【大模型之路开启:预训练(Pre-trained Models)+微调】

2019: GPT-2,统一自然语言任务。GPT-2在经过大量无标注数据生成式训练后,展示出来的零样本(zero-shot)多任务能力。

2020: GPT-3,大模型“涌现”类人智能。小样本(few-shot)学习能力,通过少量的几个例子就能适应目标任务,无需进行针对性的额外微调训练。

2021-Feb:DALL- E,第一个“文本生成图像”的AI绘画模型。

2021-Jun: CodeX,代码生成,AI具有理论上的自我繁殖能力。

2021-Oct:Disco-Diffusion, AI绘画大模型.

2022-Mar: OpenAI发布InstructGPT,引入人类反馈学习。

2022-May: GPT-3.5。

2022-Jul:AlphaFold破解了几乎所有的蛋白质三维结构。ImagenVideo,AI视频生成。

2022-Nov: ChatGPT大模型走进公众视野。

2023-Feb:OpenAI的CEO Altman发布文章,宣布OpenAI的使命是确保其造福全人类。

2023-Mar-1: ChatGPT的API开放,模型即服务的时代到来。

2023-Mar-15: GPT-4发布,突破语言空间。

2023-Mar-17: OFFICE COPILOT发布。

2023-Mar-24: GPT插件功能发布,开始与物理世界交互。

总之,ChatGPT是一个语言模型,它唯一的能力就是“把话说对”。语言模型之所以具有这么强大的能力,是因为语言本身是非常伟大的,它的成就很大程度归功于过去几千年我们人类的祖先创造的语言,以及在语言当中沉淀的大量的知识和语言的使用方式。它的“续写”能力有以下特征:可以回答问题;需要考虑任意距离词汇间的关系;是概率化的;不需要真正理解。

此外,王博老师还从以下角度介绍ChatGPT因何而强大:

词汇与关系:“大道至简的基本原理”。包括LLM、RNN、LSTM、Transformer、Bert、GPT等模型。

巨大的参数规模:“AI暴力美学”,GPT-3有1750亿参数,单次训练费用1200万美元。

海量的文本数据:人类文明的投影。2020年的模型用了3000亿个token,大约80%来源于互联网。我们有理由相信GPT-4基本上已经接近穷尽人类所有的高质量语料了。

神秘的提示学习:“真正的学习是唤醒一个人的内在天赋”。2017年transformer提出来以后,人工智能从原来的专用模型变成了“大规模预训练+微调”。先让模型学习一些通用的知识,在之后具体领域上微调即可。比如说让ChatGPT去完成一个法律任务,不需要再拿一些法律数据让它训练,只需要给它提示即可,如“接下来你要从法律的角度回答这些问题。”提示的过程中模型是没有重新学习训练的。提示学习一个典型的例子就是“思维链”,提示ChatGPT任务的解决步骤。

强化学习:“你无法通过背诵技巧学会和爱人聊天”。强化学习是一种无监督学习,是通过“间接反馈”的方式来学习。比如说下围棋的模型就会通过这种无监督学习来完成,因为围棋如何下是没有正确答案的,通过间接反馈机制就能获得良好的学习能力。聊天也是特别适合用无监督强化学习来完成。

基于代码的学习:“没有人比我更懂逻辑”。ChatGPT除了学习自然语言,还学习了代码。代码其实也算是一种语言,但它的逻辑更加清晰。ChatGPT在代码数据上进行训练,但增强了处理自然语言的逻辑能力。要注意,在这里代码与语言是两回事,就相当于用代码训练模型,但是提升了模型处理自然语言的能力。所以说,不同的语言之间是有影响的。

涌现:“More is different,复杂系统的未解之谜”。当个体的数量多到一定程度的时候,它就会发生变化。到目前为止,“涌现”在复杂系统当中是难以解释的,在人工智能系统中当然就更难以解释。根据目前的经验,大语言模型大概在200亿左右参数的时候,会出现涌现。

伦理优化与高速的飞轮:对ChatGPT进行伦理约束。

总结:ChatGPT强大在哪里?第一,大规模的模型和数据,使得它能够获取海量的知识。第二,强化学习的过程,也就是与人类交互的强化学习过程,使得它的表现更加类人,并且能够遵循人类的伦理标准。第三,涌现现象使得它的性能具有多方面的性能爆发。第四,提示学习的方式,使得他能够灵活适应不同的任务。第五,代码的学习使得他具有更好的逻辑理解与运用能力。

3 ChatGPT面临的挑战

(一)ChatGPT的技术挑战

第一,它是不稳定和不可解释的。但这个缺陷不是ChatGPT所独有的,而是整个深度学习模型所具有的,“涌现效应”导致这一问题更加严重。特别在一些敏感的领域,这一问题更加凸显。例如在自动驾驶领域,机器的事故率已经低于人类司机,但为何大家还不愿意完全相信自动驾驶呢?因为自动驾驶虽然事故率低,但是它的事故是不可解释的。

第二,知识更新。让ChatGPT临时接受新的知识比较困难。很多知识在不同的领域是不一样的。我们经常会遇到在特定的场景需要特定的知识的情况,而对于ChatGPT而言,它很难做到。

第三,事实性错误。事实性错误是指信息不符合客观事实,而ChatGPT是无法直接了解客观事实的,他只能了解语言。

第四,输出的同质性。ChatGPT所做出的回答往往是人类的主流观点。因为它是一个概率模型,它会以大概率的答案去回答它的任务。例如,它为什么回答中国的首都是北京,因为它学的语料当中大部分人都是这么说的。它的这种特点实际上有可能加剧信息茧房现象。

此外,还有复杂目标导向、模型效率和模型优化等问题,不再赘述。

(二)ChatGPT的科学问题

第一,语言不再是人类的专属。ChatGPT可以生成语言。那么这个意味着什么呢?基本上可以预见,在未来的几年当中,互联网上大部分的信息将不再是人类撰写的。事实上,现在Twitter中30%以上的活跃用户都是机器人,在微博中也有大量的水军机器人。

第二,ChatGPT是否能够创造新的知识,还是只将训练语料中的知识换一种更精炼和高质量的方式进行表达?如果是后者的话,那么人类对于ChatGPT的使用会造成知识的收敛,降低人类知识的创造效率。如果ChatGPT本身是能够创造新知识的,那它则会大大加速人类获得新知识的效率。

此外,还讨论了语言模型涌现与控制机制、语言的知识表达边界问题、自我意识与自由意志问题、人机共生问题、如何突破语言空间问题,不再赘述。

(三)ChatGPT的伦理问题

第一,用户隐私的问题。我们输入的问题,技术上是可以被ChatGPT的所有者所获取。

第二,反向影响的问题。ChatGPT会通过它所输出的内容,反过来影响人类的文化,就是我们所说的人性异化,人性向机器靠拢、机器向人性靠拢。

第三,不当使用。比如说学生用ChatGPT去作弊。

第四,人机共生与加速极化。大模型和人类有一个典型的共生循环,什么意思呢?模型是依赖于人类产生的数据来训练的,ChatGPT用人类说的话做训练之后,他再给人类答案,并影响人类的认知。人类认知被影响之后,又会说新的话。“你有权保持沉默,但你说的每一句话都会成为训练语料”,新的话又变成ChatGPT新的训练语料。如此反复,就形成一个共生循环。并进一步导致人工智能模型越来越像人,而人越来越像人工智能模型,会向一个人机共生的一种文化去逼近。

第五,生产力垄断与社会和国际关系重建。这一点恰好与区块链形成对比。区块链是分布式,能够去中心化,打破垄断。而ChatGPT这种大模型需要大规模的数据和算力,只有极少数的人或者机构能够提供这样的服务。其实ChatGPT很大程度上是来自于涌现,没有太多的新的技术。很多大的互联网公司都想形成ChatGPT等技术的垄断,从而获得权力,并影响社会、国际关系。回顾互联网发展历史,互联网发明者Tim Berners-Lee做的最伟大的一件事就是放弃了互联网专利。

第六,人工智能的社会角色与伦理地位。随着ChatGPT越来越具有类人的特征,用户不可避免的有将其人格化的冲动。那么他是否会具有类人的地位?这个可能是需要考虑的问题。

讲座最后,王博老师对中国是否会拥有自己的ChatGPT问题发表了自己的看法。王博老师认为,中国复制ChatGPT基本没有不可逾越的技术门槛,中文数据有一定劣势,但中国数据有一定优势,实际上比复制ChatGPT更重要的是,中国具有创造和ChatGPT一样的成就的能力。更重要的是,我们能否作为人类的一份子,为人类发展做出贡献。

学生提问环节中,针对学生提出的交互修正问题,智能识别问题,法律领域的类案检索,价值立场问题,技术与伦理之间的关系,智慧司法和数字检察领域的相关问题进行了细致的技术层面的解答。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

探索AI知识森林,跟随综述专栏,深度解析ChatGPT与未来科技之路

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章