🔥GPT-4震撼发布:AI新高峰,云服务的革命与国内厂商的挑战?🚀

文心一言 2年前 (2023) lida
54 0 0

文章主题:GPT-4, AI, 云服务, 大模型

666ChatGPT办公新姿势,助力做AI时代先行者!

今天,OpenAI 正式官宣 GPT-4,其中值得关注的点有两个:

第一点是,对比 ChatGPT,GPT-4 的智能水平有了进一步的提升。

🏆 AI 已经在某些专业领域能力上超越人类专家,比如在模拟律师考试中,尽管ChatGPT初期表现平平,排名仅占10%,但随后的GPT-4展现出强大的学习和适应能力,迅速跃升至领先位置。🌟在OpenAI的演示现场,我们见证了GPT-4惊人的税务处理技能,对于Alice与Bob婚后收入XXX的问题,它能瞬间给出精确无误的答案,就像一个税务专家般精准。 示例中2018年的标准扣税额计算问题,GPT-4展现出了令人惊叹的智能和准确性。🔍这样的技术进步无疑为我们的生活带来了便利,未来AI在更多领域将发挥重要作用,优化搜索体验并提升信息获取效率。🌍

🌟【OpenAI引领未来】🚀 深度探索AI新纪元!💡🔍 OpenAI在GPT-4的研究中,不仅展示了其技术实力,更聚焦于推动AI基础设施的革新与提升。🌍🌐 令人瞩目的消息来了!微软Azure AI的超强大脑,为GPT-4的诞生提供了无比坚实的舞台。💪🌈 通过Azure云平台的专属优化,全球用户得以触及这一划时代的智能工具,体验科技带来的便捷与可能性。🌍💻🌟 不断升级的AI基础设施,标志着OpenAI在人工智能领域的领导地位,也预示着一个更广泛、更包容的世界级技术生态系统正在形成。🌐💡欲了解更多关于GPT-4如何改变世界的信息,敬请关注我们后续的深度解析!👇#OpenAI #GPT-4 #AI基础设施

继 ChatGPT 之后,GPT-4 的发布,让 AI 与云的关系更进了一步。

🔥随着AI热度飙升,ChatGPT等大模型引领风潮,云计算服务的需求也随之激增。🚀GPT-4的发布更是火上浇油,短期内将深刻影响这一趋势。但从长远看,国产智能计算企业需聚焦于AI与云的深度融合、强大算力支持、创新算法开发及海量数据驱动的策略优化。🌟SEO优化:`🔥AI热度🔥ChatGPT风潮云计算需求激增🚀GPT-4冲击未来国内厂商智能化计算战略`

🎉【AI竞赛】ChatGPT挑战者来袭!🌟中国创新力量,文心一言蓄势待发!🚀虽然GPT-4的全球发布无疑为国内「ChatGPT」们带来了紧迫感,但这场人工智能马拉松,我们坚信持续奔跑才是王道!🏃‍♂️在国内AI领域的稳健脚步下,从0到1的技术革新已成常态。国内厂商的独特智慧,总能在创新中绽放光彩,将技术推向100的高峰。🎯他们擅长将看似基础的技术消化吸收,转化为实际生产力,实现技术价值的最大化。面对ChatGPT这样的全球巨头,我们不应畏惧而是迎难而上,用本土化的创新策略和技术实力,打造属于我们的AI时代里程碑。🌐记住,技术根基扎实,才能在AI的浪潮中稳坐钓鱼台。🚀让我们一起见证,中国ChatGPT如何书写未来篇章!🏆

而细究缘由,这是行业所趋,也是技术发展的客观规律。

一、AI「三分天下」,云成为分水岭

🌟了解大脑皮层神经元的秘密!🔍研究表明,灵长类动物的智慧与它们大脑中的神经元数量紧密相关。人类的大脑是个超级计算器,拥有163亿个神经元,这是大猩猩的1.8倍之多,而恒河猴则是这个数字的9.6倍。这些惊人的比例揭示了认知和理解世界的能力差异,人类在智能层面上的独特优势明显可见!🧠🚀

研究揭示,随着模型容量的增长,智能「涌现」现象逐渐显现,这已成为AI领域追求巨量规模的重要依据。业界持续聚焦于大规模模型的发展,尽管增长带来的边际效益会递减,但大家普遍认为,对大模型的研究探索远未达到终点。换句话说,未来的AI之路,将更多地倚重于庞大而复杂的系统。🌟🔍

换言之,以大模型驱动的 AI,会是接下来五年、甚至十年的 AI 主题。

图源:谷歌论文「Emergent Abilities of Large Language Models」

基于这个前提,我们就不得不聚焦于大模型研究的高门槛:如果说深度学习的基石是数据、算法与算力三驾马车,那么大模型则是大数据、精算法与大算力三驾航母,成本高、技术刁、工程难。能玩得起大模型的,必须是有人、有钱、有时间。因此,小企业与创业团队基本无法「自研」,类 ChatGPT 的钥匙只会握在资源雄厚的大厂手中。

GPT-3 刚出现时,大模型的这一特质还被行业诟病。但从去年 8 月 Stable Diffusion 、Midjourney 与百度「文心一格」等掀起的文生图热浪开始,由大厂带头推动 AI 生态建设的声音开始出现。有行业人士开始改口,认为科技巨头的入局有利于推动底层模型的进一步优化。同时,越来越多的创业团队也放弃了「自研」大模型,转而希望像 OpenAI 依傍微软一样,与国内的 AI 大厂(如百度、阿里、华为等等)建立合作。

在这种情况下,国内以语言大模型为中心的智能时代,在起步阶段就出现了「三分天下」的局面:

首先是以百度、阿里等为代表的互联网大厂,因为在深度学习的 AI 研究基础上有雄厚积累,同时从 2020 年 GPT-3 出现后就开始加注大模型,有人才、又烧得起钱(如百度过去十年的研发投入是 1000 亿),因此被 ChatGPT 的观望者们视为国产大模型开发的领军力量,以及大模型服务的「供应商」。

其次是希望站在开源大模型的肩膀上的行业团队。这当中,又可以分为两类团队:一是懂大模型开发、但没有足够资源的 AI 公司,他们最终会像 OpenAI 一样与大厂合作;二是不懂大模型开发、但懂行业痛点的非技术团队,他们希望用 ChatGPT 相关的技术去解决行业问题,如售前售后、私人家教、论文翻译与解读等等。这一类,是大模型的「淘金者」。

最后是间接受益于大模型的 B/C 端用户。ChatGPT 与其他的 AI 大模型(如决策、视觉、多模态)会为他们的生产与生活带来智能提升。以百度「文心一格」等 AI 作画产品为例,AI 小白用户也能通过输入简单的一句话 Prompt(提示)「召唤」AI 快速画出质量高的图像,丰富了数字图像内容创作的方法。可以想象,国内若推出类 ChatGPT (如百度即将发布的「文心一言」)产品也将为用户获取信息、优化工作流程等带来极大的便利。而大模型在与行业结合、与个人用户交流的过程中,又会获取更多高质量的数据,变得更智能。

换言之,大模型驱动下,AI 时代的模型与算法会成为像核电、煤电、风电一样的资源。发电厂不会把发电的能力卖给用电的人;用电的人也没必要自己买一个发电机,因为发电厂供电又稳定又安全。而在这种情况下,只有「云 +API」的方式才能形成强者愈强的马太效应。

有行业人士就分析:

各巨头公司应该会各自为战,利用好自己的资源优势,构建自己的服务能力,以 API 的方式卖给中小企业和政府做应用开发(像现在的云和以前的水电),同时自己的垂域产品也会做相应升级,确保对应的营收和用户规模持续增长。

也就是说,在 ChatGPT 的淘金热中,科技巨头不仅是「淘金者」,还是「卖铲人」。

当稳健安全可控、低成本高效率的 AI 模型服务成为巨头们要占领的下一个商业摩天岭,如何提升「云」的智能计算水平成为关键;其背后的基础设施,如芯片、框架、算法及应用,直接关乎成本与效率,也成为兵家必争之地。

二、AI 时代,云要「智能」

由于大模型的研究特征,计算的「智能」需求也是必然趋势,类 ChatGPT 的商业角逐最终也落在了云的竞争上。

OpenAI 曾有一个很有意思的数据统计:2016 年,OpenAI 员工总数 52 人,平均年薪不到百万人民币,云计算一栏的支出是 232.9 万美元左右;但到 2019 年,OpenAI 的员工整体薪酬仍远低于市场价,云计算的支出却已经增加到了 3100 万美元,翻了 13 倍之多。

这说明,在 AI 的研究发展中,基础设施比人贵,云计算的需求增速更快、商业空间无可限量。同时,在新的十年,谁能为 AI 支持算力,谁就能成为下一个领跑者。

在这一战中,百度智能云是最早在云上布局 AI 能力、将 AI 与云捆绑售卖的云厂商之一。而由于十多年在 AI 领域的持续研发投入,在 ChatGPT 开启的新 AI 时代中,AI 的底层能力似乎也开始反向助推百度在云计算服务上的优势,扭转国内现有的云布局。

2012 年深度学习席卷时,百度是国内最早注意到这个风向的科技公司。当年,「深度学习之父」Geoffrey Hinton 开公司拍卖,有四家企业在竞标中穷追猛打,其中一家、也是唯一的一家中国公司,就是百度(另外三家分别是谷歌、微软与 DeepMind)。

2013 年,百度建立了中国第一个深度学习研究院(IDL)。作为国内最早进入深度学习领域的互联网大厂,百度在 AI 上十年投入 1000 亿,2016 年开源出首个国产深度学习框架 PaddlePaddle(飞桨),是国内至今唯一能与国际两大主流框架 TensorFlow 和 PyTorch 正面交锋的深度学习框架;大模型上,2021 年发布百亿参数中英双语大模型 PLATO-X、千亿参数大模型「百度 · 文心」,2022 年又发布知识增强大模型 Ernie ……

由于很早开始训练深度学习模型,百度在计算资源的布局上也极早考虑到了 AI 的需求。

据了解,2012 年,百度就在李彦宏的老家山西阳泉建了一个计算中心,2014 年开始分批投入使用,2018 年全部交付。百度阳泉计算中心拥有 600 多项自主研发技术专利,包含「冰山」冷存储服务器和 X-MAN 超级 AI 计算平台等自研计算系统,每秒可以完成 2000 万亿次深度神经网络计算。

建成后,百度在阳泉的计算中心一直是只跑百度自己的业务,比如搜索、网盘、自动驾驶、生物计算等,在各种 AI 场景下均有磨练。2022 年 12 月底,百度正式将阳泉计算中心升级为「智算中心」后,开始对外提供 AI 的智算需求服务。据了解,目前百度智算中心在现有千卡并行环境下可以实现加速比 90%,做到单机群万卡规模,有效支持大规模训练场景。

百度阳泉智算中心

目前国内多个智算中心里,阿里乌兰察布智算中心的算力为 3 EFLOPS,商汤上海临港计算中心的峰值算力为 3.74 EFLOPS,而百度阳泉智算中心的算力可达到 4 EFLOPS。

内部消息,百度即将发布的「文心一言」一部分也是在阳泉智算中心计算。阳泉智算中心专门搭建了一个机房去支持「文心一言」的运行,目前正在封闭压力测试中,即将上线。此前,阳泉已支持文心大模型、文心一格等 AI 产品的计算需求。

目前,阳泉智算中心也是亚洲最大的单体智算中心。在多项自研制冷技术的加持下,百度阳泉智算中心的 PUE 值降到了 1.08,排名全国第一。更低的能耗意味着更低的成本,价格的优势也最终体现在对外的云服务上。雷峰网

更值得一提的是,百度智能云在 2022 年推出了端到端的 AI 基础设施——「AI 大底座」,可以提供 AI 模型开发的全栈服务。在百度的「AI 大底座」上,企业不用有很高的 AI 开发能力,也无需投入大量成本建设企业的 AI 基础设施,只需把精力和成本放在自身业务场景的打磨上,AI 开发的全流程都可以交给百度 “AI 大底座 ” 来完成。

传统来说,AI 算法的开发部署需要经过四大环节:数据处理、算法训练、芯片适配计算与应用开发,其中,训练算法的框架与芯片是壁垒环节。百度的「AI 大底座」在芯片环节布置了自研的昆仑芯、框架环节布置了飞桨,模型层则有文心大模型等,顶层应用还开发出 AI 数字人、AI 质检等应用,打通了 AI 开发一整套流程,且每一环单独拿出来都很扛打。

图注:百度 AI 大底座架构图

ChatGPT 出来后,大家的关注点集中在算力的数量与成本上,这一点毋庸置疑。但长期来看,大模型与 ChatGPT 最终必然会沉淀到行业中去解决实际问题。这时候,「模型即(商品)服务」的概念下,将 AI 模型包装成易用可得的商品的能力就成为决胜关键。

而「AI 大底座」犹如方块拼凑,设计的灵活度就恰到好处。

如果小模型时代,AI 的智能是一年级学生的水平,那么大模型时代,AI 的智能则相当于高中生。不同的智能水平,必然驱动不同的应用需求,未来的 AI 应用场景与 AI 开发流程也将很可能发生巨变。也就是说,ChatGPT、乃至 AGI 的应用开发面临极大的不确定性。

百度在芯片、框架、算法与应用方面,均有 AI 能力,能应对产业的更多需求:

面向有一定 AI 开发团队的大企业,百度可以提供「AI 大底座」中的其中一环或多环能力,如飞桨 + 昆仑,或飞桨 + 文心,或昆仑 + 文心;

面对 AI 基础设施较差的传统行业,百度的「AI 大底座」可以提供全流程、端到端的 AI 开发服务。加上百度有 EasyDL 的全自动开发实践,此前基于大底座,百度智能云已经积累了 11 个行业大模型的训练与计算经验,可以帮助客户定制场景服务。雷峰网

据了解,百度智能云的战略是「云智一体,深入产业」,强调云与 AI 能力的结合,并深入产业的具体场景,用云与 AI 解决产业生产环节中的实际问题,帮助企业实现智能化转型,而不是简单提供存储与计算能力。雷峰网

雷峰网观察到,百度在 2021 年年底打磨出文心大模型后,就开始对产业输出。百度的输出模式是:首先服务行业大客户,通过解决大客户的棘手难题积累数据与经验,沉淀到「AI 大底座」的模型层中;然后,将已经实践过的行业大模型能力复制到行业内的其他客户场景中,实现模型的泛化。

这套模式在大模型时代尤其具有商业可行性。

举个例子,百度与国家电网合作巡检项目,通过无人机搜集山头电线杆的图像后返回数据中台进行处理与算法优化,新训练的「电力大模型」算法识别准确率能提升 30%、效率提升 5 倍。在小模型时代,一个 AI 算法在东北三省也许适用,但迁移到南方就需要重新训练;但在大模型时代,迁移到另一个地方时,只需要在当地采集少量数据进行低成本调优,「电力大模型」就可以直接上岗。

大模型打磨地越多,复制成本越低,后面的客户就越用越好。在智能时代,云的定义发生了改变:以前云是资源,按需索取;现在,云需要搭载 AI 技术变成生产力,解决企业招聘部分岗位难、降低企业用人成本等,转化为可见的效率。

细数国内云厂商的 AI 能力,随着「云 +AI」的模式逐渐占据主流,过往在 AI 研发上投入不足的云厂商正在智能计算的奔跑中退后。百度智能云起步晚、市场占有率低,但改变了战斗方式,逐步体现出了 AI 时代的差异化竞争优势,将自己打造成智算时代最接近用户需求的一朵云。

ChatGPT 的风波,在云的市场,分流出了一条新的路:云智一体,势不可挡。在这次 AI 时代的抢跑中,百度确实迎来了新的机遇。

三、「卖铲人」也是「淘金者」

据了解,百度大模型为其内部产品的效果提升做出了肉眼可见的贡献。

一个数据统计是,在百度文心大模型的加持下,百度搜索的问题分类准确率提升 4.5%,新闻去重召回率提升 8%,视频推荐召回率提升 10%,小度的意图理解准确率提升了 3.1%。

百度既是「淘金者」,也是卖淘金工具的人。只有了解淘金的难点,才能卖好工具。

消息称,百度发布文心一言后,将通过百度智能云对外提供服务,逐步将文心一言的能力落地到生产的实际场景中。未来,不管是 API 的调用,还是场景的定制,都是通过云去统一对外输出。

从前,云厂商之间的竞争主要体现在比较谁能够在最短的时间内响应客户需求。算力越精准,客户的成本越低。但人工智能时代来临后,AI 会衍生出许多生态的问题,光比弹性已经意义不大。未来,客户需要的也不再只是一张能训练 AI 的 GPU,而是一整套 AI 解决方案。

ChatGPT 打造了云的分水岭,这一战,百度能否胜出?

时间会告诉我们答案。

参考链接:

https://arxiv.org/pdf/2206.07682.pdf

https://openai.com/product/gpt-4

🔥GPT-4震撼发布:AI新高峰,云服务的革命与国内厂商的挑战?🚀

🔥GPT-4震撼发布:AI新高峰,云服务的革命与国内厂商的挑战?🚀

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章