ChatGPT背后的技术挑战与未来趋势

·2018年,Google在做BERT大模型的时候,OpenAI坚持用GPT,就是说,坚信所有的问题都可以归结为从上一句预测下一句,简化整个流程。思想非常简单,但是它把这个东西推向一个高度,即不断增加模型的大小,增加数据。这个过程中,它发现了一种涌现能力。

“OpenAI是按一定的节奏释放,它会管理世界对它的预期。我担心的是,实际上已经有更伟大的技术。而且,如果下一代的范式不是这样的呢?那我们永远就这样被动地抄吗?所以更主要的是范式,就是要有一种新的研究范式,而不是被动地抄作业,这个我觉得需要更多的顶层设计。”

【编者按】2023全球人工智能开发者先锋大会期间,澎湃科技在上海临港中心会场开设“元宇宙聊天室”。2月26日下午,算法竞赛大神、《机器学习算法竞赛实战》作者王贺(鱼佬),小冰公司工程副总裁王宝元与上海市人工智能行业协会秘书长钟俊浩,探讨了对ChatGPT的冷静思考、自然语言大模型带来的启示和AIGC的实际应用,并展望了通用人工智能(AGI)的实现路径。以下为对话实录,有删减。

ChatGPT背后的技术挑战与未来趋势

最大启示:结构性创新,模型的统一

钟俊浩(上海市人工智能行业协会秘书长):ChatGPT的表现不仅在外界看来是惊艳的,甚至也在其研发团队的意料之外,你怎么看这个问题?

王宝元(小冰公司工程副总裁):这个问题很有意思。如果你站在科研人员的角度看,我想他们一定有意料之中的部分,但同时有一些惊喜。意料之中的是,我们看OpenAI过去五六年的发展历史,从GPT-1、GPT-2、GPT-3、GPT-3.5到现在呼声很高的GPT—4,它整个思想一脉相承。2018年,Google在做BERT大模型的时候,OpenAI坚持用GPT,就是说,坚信所有的问题都可以归结为从上一句预测下一句,简化整个流程。

思想非常简单,但它把这个东西推向一个高度,即不断增加模型的大小,增加数据。在数据模型大小指数级增加的同时,对算力的要求提升到极致。这个过程中,它发现了一种涌现能力。就是说,涌现出一些连设计人员当初都没有想象到的能力,这部分就叫意外惊喜。

简单来说,我们对这些人非常敬仰,他们在坚持做一件事情、有韧性、坚持自己的理念方面表现非常出色。当我们的能力跨越一定阈值时,可能会发现出现一个特别的能力,可能有意外惊喜。

王贺(算法竞赛大神、《机器学习算法竞赛实战》作者):像人机对话其实早些年就已经有了,但没有像现在这么智能,能够叠加这么多问题,回答得比较细致,或者说好像发现不了有什么问题。其实还是蛮让我们意外的。

让计算机去Debug(排错)一个代码,它可以快速地实现想法,同时还可以不断优化和改进。在之前,人们需要手动编写代码并进行调试,但这种方法的效率较低,且难以保证代码的正确性。但现在,通过让计算机去实现想法,我们可以更加高效地解决问题,并且可以不断优化和改进代码。

钟俊浩:但学界也有一些声音说,ChatGPT只是表现惊艳,从整个技术的底层逻辑来讲,ChatGPT到现在为止没有太多的改变,只是基于把数据堆大的暴力计算。

王宝元:对,我也听说过很多这样的观点,特别是研究人员。像著名的教授盖瑞·马库斯 (Gary Marcus),他几乎天天在Twitter上喷Deep Learning(深度学习)这个框架没有任何新意。包括MIT(麻省理工学院)的教授,像诺姆·乔姆斯基(Noam Chomsky),他天天说GPT对自然语言本身的理解贡献是零。但是这不妨碍ChatGPT、GPT-4可以做出伟大的系统。所以一个主流的观点认为,现在AI研究在工程化。

然而我认为,大家显然低估了这个庞大系统开发的难度。人们往往用一个单点技术去评价这场革命,但它往往不是一个单点,而是一个结构性的创新。比如算法有突破吗?当然有,基于人类反馈的强化学习算法。工程上有创新吗?必须有。一个模型有1750亿参数,在这之前没有一个系统能把这么大参数量的模型装载,都不要说做训练。所以,这场革命不仅仅是技术革新,更是一个结构性的创新。它涉及到了从人类反馈到深度学习算法,从硬件到软件,从训练到部署等多个方面的创新。所以,我们不能仅仅用单点技术去评价这场革命,而应该从更宏观的层面去看待它。

当然,Deep Learning目前还存在许多回答不了的问题,或者会捏造一些事实的情况。不过,随着技术的突破,这些问题也会逐步被解决。Deep Learning的先驱者盖瑞·马库斯确实为Deep Learning的发展做出了正面的贡献。他通过批评辅助大家找出这些系统的漏洞,这一点值得我们学习。OpenAI的成功是值得我们国内很多企业去借鉴的,他们能够做出这样的创新,值得我们学习。

钟俊浩:我们刚才讲到它的暴力计算,同时我们还不能回避的就是2017年谷歌推出的Transformer,今时今刻所有的语言类模型,都建立在Transformer的基础上。能不能把这个点再讲一讲?

王宝元:Transformer确实是一个非常了不起的发明。因为不光是NLP(自然语言处理),比如说我们做CV(计算机视觉)内容的生成,很多任务也已经全面转向Transformer。

这段文字需要重新组织,以便更好地表达作者的观点。以下是重新组织后的内容:我认为这里面并不是一个单点突破,而是逐步的。从最初的Transformer开始,才有了GPT、BERT、GPT-1、GPT-2等等。在CV领域,扩散模型(Diffusion Model)也很热门。在AIGC领域,关于文本内容生成、视频内容生成,甚至三维的几何Mesh(网格)的生成,其底层结构都是基于Transformer的。因为有这样一个底座模型,才能在此基础上不断添加新的技术,从而开创了一个新的范式。Transformer的伟大之处在于改变了一个范式,为人工智能的发展奠定了基础。

神经网络当然在一些任务上依然还是很方便,但是如果问我若干年以后还是Transformer吗?有可能不是。比如山姆·奥特曼(OpenAI首席执行官Sam Altman)认为Transformer这个结构有其伟大之处,但是依然有很多问题。所以我觉得它一定会逐步被一些很聪明的人迭代掉。随着深度学习的发展,神经网络已经成为了一种非常流行的机器学习工具。神经网络在处理图像、语音和自然语言等任务时表现出色,被广泛应用于各种领域。但是,神经网络并不是万能的,它也存在一些局限性。其中一种局限性就是Transformer的局限性。虽然Transformer在处理序列数据时表现出色,但是在处理图像或语音时却表现平平。这是因为Transformer的架构是基于矩阵乘法的,在处理序列数据时,矩阵乘法的效率会变得较低,这会导致模型的训练时间变长,同时模型的性能也会受到影响。此外,由于Transformer的架构较为简单,容易被攻击。攻击者可以通过构造恶意模型来破坏Transformer的架构,使其无法正常运行。这会导致模型的训练和推理无法正常进行,从而降低了模型的实用性和可靠性。因此,虽然神经网络在处理序列数据时表现出色,但是在处理图像或语音时却表现平平。随着技术的发展,一些很聪明的人可能会迭代掉Transformer,重新构建更加高效、安全的神经网络架构,以适应不同的数据集和任务需求。

钟俊浩:从谷歌所走的技术路径来讲,它是先有一个底层的通用模型,然后再在上面长出很多小模型去应用于各项应用。而像ChatGPT就直接走到了另外一个路径,直接就是叫AGI(通用人工智能),不是一个大模型再去支撑小模型,而是要一个大模型去解决通用人工智能的问题。

王宝元:我觉得你讲了一个很有趣的点,就是AGI。我们在讨论AGI的时候,每个人心里对它的定义不见得在一个尺度上。所以当我们在讨论一个还没有到来的东西,或者说我们没法定义清楚究竟是什么的时候,这个是有难度的。但我觉得OpenAI的目标显然不是说做一家三四年的公司,它一定是有非常长远的愿景,要做成能够带给世界AGI能力的一家公司。目前看ChatGPT,它叫AGI吗?在我的认知里,它肯定不是。它只是展示出了比GPT出来之前所有你可能接触到的AI模型更强大的一种能力。但是这种能力在AGI是什么阶段,我自己说不清楚。

钟俊浩:如果我们具象一点说,ChatGPT或GPT-3.5,它带给我们最大的启示是什么?

王宝元:我觉得第一点就是模型的统一。原来大家都是小模型,现在它证明了用一个深层次的大模型,就是从左预测右这个领域,可以统一几乎所有的任务,原来是为每个领域的每个子问题设计一个专门算法。

钟俊浩:它是仅仅局限在,比如一问一答的NLP领域,还是涵盖到知识类的所有内容?

王宝元:我觉得总结起来一句话,它展示了用自然语言作为交互,就是所有任务都可以通过这个语言描述去表达。这可能是一个非常伟大的,原来没有出现过的从零到一的突破。这就是我刚才说的它统一了。

原内容:第二,它展示了强大的可扩展性,可以直接泛化去解决一个没有训练过的新任务。但是带来的问题是,针对原来的很多子任务会不会是大炮打苍蝇?比如说我要判断一句话涉不涉及敏感内容,就是对这句话做个分类任务。这样的任务可能比较简单,用不着一个1750亿参数的模型才能算出。

基于上述分析,该模型下一步应考虑如何对各种应用进行优化。虽然该模型已经具备处理大规模任务的能力,但针对具体应用场景,仍有优化的空间。因此,需要探索解小模型、小任务的方式,以获得更好的性能。然而,这需要先进行观察和评估,以确定最佳的优化方案。从经济角度来看,全部采用大模型的代价可能会很高,因此需要权衡各种因素,选择最适合的模型解决方案。

钟俊浩:那么从你的这个逻辑而言,大模型在落地应用中,还是更偏向于原先在Transformer基础上面,大模型叠小模型更合适一些。

之前我的理解是,人工智能需要结合行业技术诀窍和专业知识,才能解决行业效率不高、高度重复性和准确率不高的问题。但使用ChatGPT后,我开始感到困惑,它似乎能够完成所有任务,这让我开始怀疑是否需要行业技术诀窍和专业知识。今天,听王博士一说,我才明白,一个通用大模型仍然需要了解行业的技术诀窍和专业知识。

王宝元:对。即便对OpenAI来讲,它也是讲,底座是通用的,上面要alignment(对齐),就是说我具体要做这样的任务还是要有各种指令。另外,我觉得CV目前还没有一个能够放之四海皆准的通用大模型,人脸模型依然是一个特解,在通解和特解之间,在CV领域我还没有看到一个确定的结论。

王贺:ChatGPT基于全网的一些数据,很多数据来源于开源。但要钻进某一个比较小的领域,比如像金融或一些制造业,它数据非常少,在解决这个问题的时候就可能会面临一些困难,或者说初期可能泛化性比较差一些。所以我觉得还是需要去结合一些领域内的知识。如果让用户体验更好一些,就需要把用户本身的数据信息和推荐系统结合在一起,去定制化做出一些推荐。

ChatGPT背后的技术挑战与未来趋势

2月26日,在澎湃科技“元宇宙聊天室”,三位嘉宾就ChatGPT的启示和AIGC的实际应用展开交流。从左向右依次为上海市人工智能行业协会秘书长钟俊浩、小冰公司工程副总裁王宝元、算法竞赛大神王贺(鱼佬)。

要多语言训练,不能只用中文

钟俊浩:今年,大家把ChatGPT的出现比喻成iPhone的出现。能不能从实际体验讲讲,它有没有让你感觉,像iPhone曾经颠覆了对手机的认知?

王贺:我感觉现在其实还没有大规模应用起来,更多还是做一些测试或者辅助一些问题的解决,比如准备一个发言稿。

之前很多人会问,人工智能会不会慢慢替代AI开发者?我觉得这可能需要一定过程。现在更关键的是,它不断跟开发者起到互补作用。就像深度学习,它可能就像一个黑盒,有监督的训练肯定比无监督的更好一些。就像我们去开发一个软件,还是需要开发者加上一些策略和规则才能让它更好适应环境,学习得更好一些。

王宝元:我补充一点。我自己在微软工作了十几年,我离开微软之前知道GitHub上的Copilot(编程工具),就是辅助开发人员去写code(代码)的。微软CEO最近的一些演讲,实际上就在说这个东西已经极大帮助到了开发人员,提高了至少百分之30%的效率。就是说它不见得完全替代,但是可以辅助,提升效率。比如原来完成一个模块的功能需要一个小时,现在可能20分钟。那么客观来讲,很多开发人员的工作就可能减少了,或者轻松了。

人机交互范式的变更是一个必然趋势,但是否要重构所有已知的应用程序,还需要进一步观察和研究。根据我的判断,这个趋势势不可挡,新的交互界面需要被开发出来,同时AI在各个领域的应用程序也需要进行重构。

钟俊浩:我自己先做个预判,一定要重构了。未来整个体系一定会在一个新的秩序和状态下产生。

王宝元:我比较认同这个看法,我觉得这里面其实很多东西才刚刚开始。比如谁来统一负责完成AI化或者“ChatGPT化”,它的模式是怎么样的?在整个版图中,每家公司的定位在哪里?比如说OpenAI跟微软结合,这个定位非常明确,就要做底层的能力,那么它当然是希望所有人用OpenAI,不要重复造轮子,可别人也造不了。

钟俊浩:回到最初的问题,ChatGPT的出现会带来智能手机跟功能手机之间这么大的一个跃迁吗?

王宝元:我想2007年iPhone横空出世的时候,也没有人能够预测它带来的影响会那么大。现在可能就是说我自己没有能力预判ChatGPT会不会带来这种影响,但我总体是非常乐观的。

钟俊浩:之前我们说数字鸿沟,现在我发现我跟ChatGPT有鸿沟。跟ChatGPT聊得很好,需要能够用它的语言模式交流。我觉得还没有特别掌握怎么跟ChatGPT交流和沟通,这也是有鸿沟的。

王宝元:我觉得这个要分开讲,ChatGPT只是OpenAI放出的一个demo(演示),我们不能以一个demo的体验来评判将来产品的可能体验,所以我们更多是说这个demo展示出的底层技术能力让我们非常佩服。

要真正解决鸿沟问题,我认为人工智能也应该尝试。比如,通过设计更加友好的交互界面,让老年人更容易使用。我很期待基于ChatGPT背后底层技术的产品,看看它能否创作出什么了不起的产品来解决鸿沟问题,并让更多的人去接近它。

钟俊浩:都说做中文版ChatGPT要比做英文版的难多了,中文说同一个词但用不同口气表达出来含义就完全不同。由于本身数据不够优质,是不是中文版ChatGPT的交流和交互势必会比英文的更困难?

王贺:我觉得势必是比较困难的。包括我们对话的时候其实需要考虑的点非常多,所以不仅要理解它本身的潜台词,可能还有一些方言,又或者一些反话,这些都给人机交互增加了很多难度。

王宝元:如果我们看OpenAI这些模型,它当然并没有专门针对中文,肯定是多语言以英文为主。但我们发现它在中文上的泛化能力也很不错。可能还是要多语言训练,不能只用中文。

可能更难的问题不是隐喻,而是中文里的一些更深层次的问题,比如反讽等理解难度较高的问题。从理论上讲,隐喻本身并不具备匹配数据库中类似信息的能力,因此它可能只碰巧匹配了数据库中的一些信息,而不是具备隐喻能力。这种问题目前看来还是比较难解的。中文版ChatGPT需要借助英文来求解。

理论上,虽然世界上的语言有几百种,但是人类的智慧、表达思想的方式其实有很多共性,只是最后那个词的写法不一样。因此,多语言组合在一起,可以更好地学习到人类的先验知识。这些知识有一定的共性,因此大模型的跨语言迁移能力也得到了提升。如果我国的机构要开展类似的工作,那么肯定需要使用英文。英文的训练质量也非常高,拥有各种高质量的书籍和文献。因此,我们不能仅仅局限于中文。

OpenAI会管理世界对它的预期

钟俊浩:从ChatGPT往前推人工智能技术,一直说它其实就是统计学,但今天在ChatGPT呈现的形态上来说,好像它已经具备了逻辑。这听上去是两件事儿,一个用的是数据和关联性,另一个是在交流过程中看起来带着思想,具备一定的逻辑性。怎么看待这个问题?

王宝元:从本质来讲,给大模型注入数据的量以及注入方法,实际上极大促成了它看起来像有推理能力。比如以我在大模型上做思维链(cot)为例,cot实际上是一个人发明的针对大模型特性的一种trick(戏法)。就是它不是什么特别复杂的数学公式,统计上的某个原理,它实际上就是一个人类的直觉,但这个直觉是定制化给大模型的。

当大模型变得越来越庞大时,为了容纳海量的数据,它们需要学习一些规律。就像从左预测右一样,这实际上非常复杂。通过历史记录去判断下一个字的可能性,这其实只是一个纯粹的统计概率问题。因此,找到这个模式会让这个模型看起来具有推理能力,因为人类讲一句话或写一篇文章都有逻辑。

逻辑性是AI技术中非常重要的一个方面,尤其是在ChatGPT背后的技术中。Instruction(指示学习,Instruction Learning)技术可以显式地注入一种逻辑,让大模型学习到如何输出有条理有逻辑有结构的答案。因此,在回答上海有哪些五A级景区的问题时,答案需要非常专业,有条理性、结构性,并且符合逻辑性的要求。这样的数据是要标的,只是这个标的量跟预训练相比几乎可以忽略。但需要给它这样的任务,让它输出有条理有逻辑有结构的答案,然后让大模型学习出来。

钟俊浩:可能这样只是让一个小孩学会了大人的聊天方式,慢慢让它成长,它持续往后再去成长的话,或许也能达到一个专家的水平吧?

王宝元:我觉得现在大家可能把它想得太强大了。我们看到它的能力大部分还是研究人员赋予它的一种规则。只是现在这个能力大模型学会了,学会给的这个指令,然后让可能不在这个领域的人比如用户觉得有逻辑。但在我们看来的话,它就应该要这样,研究人员教了这些。

钟俊浩:如果现在要ChatGPT跟一个小孩聊天,也可以聊得挺好,是这个意思吗?

王宝元:这个完全能做到,现在如果给我一堆小孩聊的语料,就是说小孩喜欢问什么样的问题,讲话风格是什么,等等。只要给我这样的语料,现在是已经能做到了。

ChatGPT作为demo存在的原因是它只提供了有限的语料库,而并非完整的人脑模型。对于像我们公司做的AI Being这样的虚拟人,每个AI Being都有自己独特的Persona,例如可以是18岁的少女,某个游戏角色,或者真人的数字孪生。要让别人感知到Persona的存在,需要提供与之相关的语料库,这有助于增强虚拟人的个性和形象。

钟俊浩:ChatGPT未来会不会持续成长,而不是说一定要教给它这种专家逻辑,让一个小孩学会大人讲话?

王宝元:我觉得不会,它要持续学习的话,得有一种教它怎么learn(学习)的机制,这个机制是要人类设计。

钟俊浩:ChatGPT的参数已经达到1750亿,我们还能不能再以指数级这种速度往前走?

王宝元:这个一定要考虑背后的工程代价和经济代价,这会是极大的资源消耗。

钟俊浩:持续加大算力,继续用工程化的思维解决问题,它会不会越来越聪明,越来越接近于人脑?

王宝元:我觉得这个问题有点理想化,即资源是不设限的。如果让我站在这个位置,我可能不会去做这样的事,我觉得应该有更有价值的事情,比如在现有基础上怎么去落地。因为它已经展示出很强大的能力,已经能够解决很多现实场景的应用。那么有没有可能赶紧去铺大量的应用,用大量的应用反哺模型,这会不会带来新的发现?这个是科学和工程上要一起验证的假设。

钟俊浩:最后,能不能从应用角度展开讲一讲ChatGPT到底给我们带来了什么?

王贺:比如写论文,另一个角度就是我们还需要辨别论文是不是用ChatGPT写的。我们用它,它其实就是一个辅助的作用,就像一台电脑一样,能够帮我们快速搜索,帮我们完成一些简单的事情。但是在应用的时候,我觉得还是需要我们去赋予一些思想,一些逻辑。不是说完全不用写代码了,它写的代码我们一定要去用吗?其实它也是给我们一种思路,或者和我们进行一些对比。核心点还是辅助,然后提高整体做事情的效率。

王宝元:我很同意,首先肯定是一个效率提升的问题。就是它会辅助人类做一些事情,极大地提升效率,这个一定会在各行各业很快开花结果,这是我觉得它最大的价值。

我们要以积极的态度去拥抱自动驾驶技术。虽然有些人可能并不喜欢一直开车,但是自动驾驶技术的最大社会价值在于解放人的双手,提高人类生活质量。在过去的十年中,很多资本都致力于推动自动驾驶技术的发展,这表明它已经成为一种趋势,并且具有巨大的商业和社会价值。因此,我们应该以积极的态度去拥抱自动驾驶技术,体验它带来的正向影响,并推动它的发展。

开车或之前被打字替代的写字是一项技能,随着技术的发展,它是否应该随着技术发展呢?我认为人类不应该放弃开车这项技能,而是应该积极面对,将人类引到需要激发灵感、非重复、有创造力的领域中。这些工具反而会助力人类创造力的提高,例如AI For science项目,旨在利用人工智能工具来提高发现新知识和学习效率、频率和成功率。

我的总体看法是乐观的,但政府需要出台相关的法规以降低可能带来的负面影响。就像剑一样,它可以发挥非常正面的作用,但也可能被用于坏事。这是另一个问题,需要政府采取适当的措施来规范使用。

钟俊浩:像ChatGPT已经把标杆竖在这儿了,可能中国学界或业界大家都挺着急的,它做出来了我们怎么办。有一些人说,不用着急,用这些基础数据、基础逻辑,应该这半年就能赶上。另一种理论说,赶不上了,三年都不可能做得到。两位怎么看这个问题?

王宝元:问题非常好,大家都在思考这个问题。我觉得我们还是要把技术跟产品分开看。不能讲谷歌、Meta没有这样的技术。技术本身也是一个有时候线性、有时候非线性的发展过程。而且我觉得OpenAI并没有藏着掖着,至少大的思想层面大家都知道,更多的可能是系统层面,就是所有东西放在一起的能力。

抄袭作业可能让考生获得一些分数,比如50分、30分或70分,但这可能导致整个研究范式的迁移。

思考为什么OpenAI可以持续不断做出这样的东西,而且放出的东西是两年前的。ChatGPT公开几个月,新必应就马上集成进去了,就是说这些大模型在内部早就训练好了。OpenAI是按一定的节奏释放,它会管理世界对它的预期。我担心的是,实际上已经有更伟大的技术。而且,如果下一代的范式不是这样的呢?那我们永远就这样被动地抄吗?比如说现在要百分之百复刻ChatGPT,一定不是几个月的时间。如果到那个阶段,你以为你达到了,可是人家用一种新的方式甩开了,我们怎么办?

所以更主要的是范式,就是要有一种新的研究范式,而不是被动地抄作业,这个我觉得需要更多的顶层设计。

王贺:对,这个并不是一蹴而就的,而是沉淀了很久。其实目前国内很多企业,包括我了解到,一些很小团队的经营人被领导要求去做这件事情,这种企业非常多。它们并不太担心,或者说这个和它们并没有太大关联,只是把这个技术应用于场景、应用于业务。可能有一些大企业会担心这件事情,它们想快速做出来或者说不掉队。

(对话实录由邵文整理,看直播回放视频请)

ChatGPT背后的技术挑战与未来趋势

关键词:人工智能,深度学习,GPT,BERT,Transformer,人类反馈,算法,工程,计算能力,意外惊喜,思想,开发者,大模型,数据,算力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,人类创造力,自动驾驶,法规,创新,人机交互,技能,创造力,新知识,算法设计,范式,政府,法规,顶层设计,计算能力,任务,子任务,隐喻,语言学,知识表示,自动驾驶,法规,设计,自动驾驶,任务,子任务,隐喻,语言学,知识表示,自动驾驶,任务,隐喻,语言学,知识表示,自动驾驶,法规,设计,任务,自动驾驶,知识表示,隐喻,自动驾驶,知识表示,自动驾驶,法规,设计,自动驾驶,知识表示,自动驾驶,任务,隐喻,语言学,知识表示,自动驾驶,任务,知识表示,自动驾驶,知识表示,自动驾驶,知识,任务,自动驾驶,知识表示,自动驾驶,任务,知识表示,自动驾驶,知识表示,自动驾驶,任务,自动驾驶,知识表示,自动驾驶,知识表示,自动驾驶,知识表示,自动驾驶,知识表示,自动驾驶,任务,知识表示,自动驾驶,知识表示,自动驾驶,知识表示,自动驾驶,知识表示,自动驾驶,知识表示,知识,自动驾驶,知识表示,知识表示,自动驾驶,知识表示,知识表示,自动驾驶,知识表示,知识表示,知识,知识表示,知识表示,知识表示,知识,知识表示,知识,自动驾驶,知识,知识表示,知识表示,自动驾驶,知识表示,知识,自动驾驶,知识表示,知识表示,知识,知识表示,知识表示,知识,知识,知识表示,知识,知识,知识,知识表示,知识,知识,知识表示,知识,知识表示,知识,知识表示,知识表示,知识,知识,知识,知识表示,知识,知识表示,知识,知识,知识,知识,知识,知识,知识,知识,知识,知识,知识,知识,知识,知识,知识表示,知识,知识,知识,知识,知识,知识,知识,知识,知识。

版权声明:lida 发表于 2023年3月15日 am11:58。
转载请注明:ChatGPT背后的技术挑战与未来趋势 | ChatGPT资源导航

相关文章