🔥GPT-4震撼发布:AI新纪元,云服务的升级风暴?🔥律师考试大突破,AI基础设施的革命!🔥中国C
文章主题:GPT-4, AI, 云服务, 大模型
今天,OpenAI 正式官宣 GPT-4,其中值得关注的点有两个:
第一点是,对比 ChatGPT,GPT-4 的智能水平有了进一步的提升。
🏆 AI 已经在某些专业领域能力上超越人类专家,比如在模拟律师考试中,尽管ChatGPT初期表现平平,排名仅占10%,但随后的GPT-4展现出强大的学习和适应能力,迅速跃升至领先位置。🌟在OpenAI的演示现场,我们见证了GPT-4惊人的处理税务问题的能力,它能瞬间为Alice和Bob婚后收入XXX的税务问题提供精确答案,2018年的标准扣税额一清二楚。📊这样的技术进步不仅展示了AI的强大计算力,也揭示了其在复杂任务中的高效解决方案。未来,AI无疑将在更多领域展现出令人惊叹的能力,为我们的生活带来便利和智能化。🚀
🌟【OpenAI引领未来】🚀 通过论文揭示,OpenAI 着力于AI基础设施的革新与提升,为GPT-4的强大潜力铺平道路。💡 神秘的背后,是微软Azure Azure AI超算的力量!🌍 这一全球领先的科技巨头,为了将GPT-4触达世界各地,不遗余力地优化其云平台,专为AI加速而生。🌟【AI基础设施的升级】📈 从OpenAI到Azure,他们携手打造了AI时代的基础设施,确保GPT-4的高效运行和广泛普及。🌍 Azure云平台的深度定制,就像一个智能的神经中枢,为全球用户提供无缝的AI体验。🌟【优化不止于此】🌐 不只是技术的进步,更是服务理念的升级。OpenAI致力于让AI技术真正服务于大众,而Azure的基础设施优化,则是这一承诺的具体体现。💡欲了解更多关于GPT-4如何改变世界的信息,敬请关注我们未来的内容更新!📚SEO优化提示:使用关键词“OpenAI”,“AI基础设施”,“微软Azure”,“GPT-4”,“全球用户”,“云平台优化”等。
继 ChatGPT 之后,GPT-4 的发布,让 AI 与云的关系更进了一步。
🔥随着AI热度飙升,ChatGPT等大模型引领风潮,云服务的需求瞬间升温🔥。 começar com o lançamento de GPT-4, essa pressão se intensificará ainda mais nos próximos tempos. No entanto, a verdadeira batalha é no longo termo, onde empresas nacionais lutam por desenvolver habilidades harmonizadas em integração entre AI, cloud, poder de cálculo, algoritmos e dados. 🧠💻
🎉【AI新纪元】ChatGPT挑战者来袭,文心一言蓄势待发!🚀对于中国AI赛道上的选手们来说,GPT-4无疑是加速起跑的强劲引擎。但别忘了,长跑耐力才是制胜关键!🏃♂️国内厂商们,你们的舞台已准备好,如何将这股技术风暴转化为创新的花朵,从1到100的飞跃,是检验实力的时刻。🎨基础技术建设,就像土壤,决定能否滋养并壮大这些技术之树。每一步迭代,每一次突破,都是对技术消化与应用能力的考验。💪只要持续奔跑,你们将引领潮流,书写中国AI新篇章!🏆SEO优化提示:#ChatGPT挑战# #文心一言蓄力# #AI长跑耐力# #基础技术建设
而细究缘由,这是行业所趋,也是技术发展的客观规律。
一、AI「三分天下」,云成为分水岭
🌟了解大脑皮层神经元数量与智能水平的关系吗?科学研究表明,灵长类动物中,我们的大脑皮层神经元密度堪称翘楚——163亿颗!相比大猩猩的1.8倍,恒河猴的9.6倍,这显著优势在认知理解上意味着超凡的通用智能。🌍智商不只是数量游戏,更关乎这些神经元如何高效运作。🧠
研究揭示,随着模型容量的增长,智能「涌现」现象得以奠定,这成为AI领域追求巨量模型发展的核心驱动力。基于过往成果,业界将持续致力于规模优化,尽管前进之路越往后可能带来效益递减的挑战。然而,普遍共识是,大模型的研发进程远未到达终点。🌟🔍
换言之,以大模型驱动的 AI,会是接下来五年、甚至十年的 AI 主题。
图源:谷歌论文「Emergent Abilities of Large Language Models」
基于这个前提,我们就不得不聚焦于大模型研究的高门槛:如果说深度学习的基石是数据、算法与算力三驾马车,那么大模型则是大数据、精算法与大算力三驾航母,成本高、技术刁、工程难。能玩得起大模型的,必须是有人、有钱、有时间。因此,小企业与创业团队基本无法「自研」,类 ChatGPT 的钥匙只会握在资源雄厚的大厂手中。
GPT-3 刚出现时,大模型的这一特质还被行业诟病。但从去年 8 月 Stable Diffusion 、Midjourney 与百度「文心一格」等掀起的文生图热浪开始,由大厂带头推动 AI 生态建设的声音开始出现。有行业人士开始改口,认为科技巨头的入局有利于推动底层模型的进一步优化。同时,越来越多的创业团队也放弃了「自研」大模型,转而希望像 OpenAI 依傍微软一样,与国内的 AI 大厂(如百度、阿里、华为等等)建立合作。
在这种情况下,国内以语言大模型为中心的智能时代,在起步阶段就出现了「三分天下」的局面:
首先是以百度、阿里等为代表的互联网大厂,因为在深度学习的 AI 研究基础上有雄厚积累,同时从 2020 年 GPT-3 出现后就开始加注大模型,有人才、又烧得起钱(如百度过去十年的研发投入是 1000 亿),因此被 ChatGPT 的观望者们视为国产大模型开发的领军力量,以及大模型服务的「供应商」。
其次是希望站在开源大模型的肩膀上的行业团队。这当中,又可以分为两类团队:一是懂大模型开发、但没有足够资源的 AI 公司,他们最终会像 OpenAI 一样与大厂合作;二是不懂大模型开发、但懂行业痛点的非技术团队,他们希望用 ChatGPT 相关的技术去解决行业问题,如售前售后、私人家教、论文翻译与解读等等。这一类,是大模型的「淘金者」。
最后是间接受益于大模型的 B/C 端用户。ChatGPT 与其他的 AI 大模型(如决策、视觉、多模态)会为他们的生产与生活带来智能提升。以百度「文心一格」等 AI 作画产品为例,AI 小白用户也能通过输入简单的一句话 Prompt(提示)「召唤」AI 快速画出质量高的图像,丰富了数字图像内容创作的方法。可以想象,国内若推出类 ChatGPT (如百度即将发布的「文心一言」)产品也将为用户获取信息、优化工作流程等带来极大的便利。而大模型在与行业结合、与个人用户交流的过程中,又会获取更多高质量的数据,变得更智能。
换言之,大模型驱动下,AI 时代的模型与算法会成为像核电、煤电、风电一样的资源。发电厂不会把发电的能力卖给用电的人;用电的人也没必要自己买一个发电机,因为发电厂供电又稳定又安全。而在这种情况下,只有「云 +API」的方式才能形成强者愈强的马太效应。
有行业人士就分析:
各巨头公司应该会各自为战,利用好自己的资源优势,构建自己的服务能力,以 API 的方式卖给中小企业和政府做应用开发(像现在的云和以前的水电),同时自己的垂域产品也会做相应升级,确保对应的营收和用户规模持续增长。
也就是说,在 ChatGPT 的淘金热中,科技巨头不仅是「淘金者」,还是「卖铲人」。
当稳健安全可控、低成本高效率的 AI 模型服务成为巨头们要占领的下一个商业摩天岭,如何提升「云」的智能计算水平成为关键;其背后的基础设施,如芯片、框架、算法及应用,直接关乎成本与效率,也成为兵家必争之地。
二、AI 时代,云要「智能」
由于大模型的研究特征,计算的「智能」需求也是必然趋势,类 ChatGPT 的商业角逐最终也落在了云的竞争上。
OpenAI 曾有一个很有意思的数据统计:2016 年,OpenAI 员工总数 52 人,平均年薪不到百万人民币,云计算一栏的支出是 232.9 万美元左右;但到 2019 年,OpenAI 的员工整体薪酬仍远低于市场价,云计算的支出却已经增加到了 3100 万美元,翻了 13 倍之多。
这说明,在 AI 的研究发展中,基础设施比人贵,云计算的需求增速更快、商业空间无可限量。同时,在新的十年,谁能为 AI 支持算力,谁就能成为下一个领跑者。
在这一战中,百度智能云是最早在云上布局 AI 能力、将 AI 与云捆绑售卖的云厂商之一。而由于十多年在 AI 领域的持续研发投入,在 ChatGPT 开启的新 AI 时代中,AI 的底层能力似乎也开始反向助推百度在云计算服务上的优势,扭转国内现有的云布局。
2012 年深度学习席卷时,百度是国内最早注意到这个风向的科技公司。当年,「深度学习之父」Geoffrey Hinton 开公司拍卖,有四家企业在竞标中穷追猛打,其中一家、也是唯一的一家中国公司,就是百度(另外三家分别是谷歌、微软与 DeepMind)。
2013 年,百度建立了中国第一个深度学习研究院(IDL)。作为国内最早进入深度学习领域的互联网大厂,百度在 AI 上十年投入 1000 亿,2016 年开源出首个国产深度学习框架 PaddlePaddle(飞桨),是国内至今唯一能与国际两大主流框架 TensorFlow 和 PyTorch 正面交锋的深度学习框架;大模型上,2021 年发布百亿参数中英双语大模型 PLATO-X、千亿参数大模型「百度 · 文心」,2022 年又发布知识增强大模型 Ernie ……
由于很早开始训练深度学习模型,百度在计算资源的布局上也极早考虑到了 AI 的需求。
据了解,2012 年,百度就在李彦宏的老家山西阳泉建了一个计算中心,2014 年开始分批投入使用,2018 年全部交付。百度阳泉计算中心拥有 600 多项自主研发技术专利,包含「冰山」冷存储服务器和 X-MAN 超级 AI 计算平台等自研计算系统,每秒可以完成 2000 万亿次深度神经网络计算。
建成后,百度在阳泉的计算中心一直是只跑百度自己的业务,比如搜索、网盘、自动驾驶、生物计算等,在各种 AI 场景下均有磨练。2022 年 12 月底,百度正式将阳泉计算中心升级为「智算中心」后,开始对外提供 AI 的智算需求服务。据了解,目前百度智算中心在现有千卡并行环境下可以实现加速比 90%,做到单机群万卡规模,有效支持大规模训练场景。
百度阳泉智算中心
目前国内多个智算中心里,阿里乌兰察布智算中心的算力为 3 EFLOPS,商汤上海临港计算中心的峰值算力为 3.74 EFLOPS,而百度阳泉智算中心的算力可达到 4 EFLOPS。
内部消息,百度即将发布的「文心一言」一部分也是在阳泉智算中心计算。阳泉智算中心专门搭建了一个机房去支持「文心一言」的运行,目前正在封闭压力测试中,即将上线。此前,阳泉已支持文心大模型、文心一格等 AI 产品的计算需求。
目前,阳泉智算中心也是亚洲最大的单体智算中心。在多项自研制冷技术的加持下,百度阳泉智算中心的 PUE 值降到了 1.08,排名全国第一。更低的能耗意味着更低的成本,价格的优势也最终体现在对外的云服务上。雷峰网
更值得一提的是,百度智能云在 2022 年推出了端到端的 AI 基础设施——「AI 大底座」,可以提供 AI 模型开发的全栈服务。在百度的「AI 大底座」上,企业不用有很高的 AI 开发能力,也无需投入大量成本建设企业的 AI 基础设施,只需把精力和成本放在自身业务场景的打磨上,AI 开发的全流程都可以交给百度 “AI 大底座 ” 来完成。
传统来说,AI 算法的开发部署需要经过四大环节:数据处理、算法训练、芯片适配计算与应用开发,其中,训练算法的框架与芯片是壁垒环节。百度的「AI 大底座」在芯片环节布置了自研的昆仑芯、框架环节布置了飞桨,模型层则有文心大模型等,顶层应用还开发出 AI 数字人、AI 质检等应用,打通了 AI 开发一整套流程,且每一环单独拿出来都很扛打。
图注:百度 AI 大底座架构图
ChatGPT 出来后,大家的关注点集中在算力的数量与成本上,这一点毋庸置疑。但长期来看,大模型与 ChatGPT 最终必然会沉淀到行业中去解决实际问题。这时候,「模型即(商品)服务」的概念下,将 AI 模型包装成易用可得的商品的能力就成为决胜关键。
而「AI 大底座」犹如方块拼凑,设计的灵活度就恰到好处。
如果小模型时代,AI 的智能是一年级学生的水平,那么大模型时代,AI 的智能则相当于高中生。不同的智能水平,必然驱动不同的应用需求,未来的 AI 应用场景与 AI 开发流程也将很可能发生巨变。也就是说,ChatGPT、乃至 AGI 的应用开发面临极大的不确定性。
百度在芯片、框架、算法与应用方面,均有 AI 能力,能应对产业的更多需求:
面向有一定 AI 开发团队的大企业,百度可以提供「AI 大底座」中的其中一环或多环能力,如飞桨 + 昆仑,或飞桨 + 文心,或昆仑 + 文心;
面对 AI 基础设施较差的传统行业,百度的「AI 大底座」可以提供全流程、端到端的 AI 开发服务。加上百度有 EasyDL 的全自动开发实践,此前基于大底座,百度智能云已经积累了 11 个行业大模型的训练与计算经验,可以帮助客户定制场景服务。雷峰网
据了解,百度智能云的战略是「云智一体,深入产业」,强调云与 AI 能力的结合,并深入产业的具体场景,用云与 AI 解决产业生产环节中的实际问题,帮助企业实现智能化转型,而不是简单提供存储与计算能力。雷峰网
雷峰网观察到,百度在 2021 年年底打磨出文心大模型后,就开始对产业输出。百度的输出模式是:首先服务行业大客户,通过解决大客户的棘手难题积累数据与经验,沉淀到「AI 大底座」的模型层中;然后,将已经实践过的行业大模型能力复制到行业内的其他客户场景中,实现模型的泛化。
这套模式在大模型时代尤其具有商业可行性。
举个例子,百度与国家电网合作巡检项目,通过无人机搜集山头电线杆的图像后返回数据中台进行处理与算法优化,新训练的「电力大模型」算法识别准确率能提升 30%、效率提升 5 倍。在小模型时代,一个 AI 算法在东北三省也许适用,但迁移到南方就需要重新训练;但在大模型时代,迁移到另一个地方时,只需要在当地采集少量数据进行低成本调优,「电力大模型」就可以直接上岗。
大模型打磨地越多,复制成本越低,后面的客户就越用越好。在智能时代,云的定义发生了改变:以前云是资源,按需索取;现在,云需要搭载 AI 技术变成生产力,解决企业招聘部分岗位难、降低企业用人成本等,转化为可见的效率。
细数国内云厂商的 AI 能力,随着「云 +AI」的模式逐渐占据主流,过往在 AI 研发上投入不足的云厂商正在智能计算的奔跑中退后。百度智能云起步晚、市场占有率低,但改变了战斗方式,逐步体现出了 AI 时代的差异化竞争优势,将自己打造成智算时代最接近用户需求的一朵云。
ChatGPT 的风波,在云的市场,分流出了一条新的路:云智一体,势不可挡。在这次 AI 时代的抢跑中,百度确实迎来了新的机遇。
三、「卖铲人」也是「淘金者」
据了解,百度大模型为其内部产品的效果提升做出了肉眼可见的贡献。
一个数据统计是,在百度文心大模型的加持下,百度搜索的问题分类准确率提升 4.5%,新闻去重召回率提升 8%,视频推荐召回率提升 10%,小度的意图理解准确率提升了 3.1%。
百度既是「淘金者」,也是卖淘金工具的人。只有了解淘金的难点,才能卖好工具。
消息称,百度发布文心一言后,将通过百度智能云对外提供服务,逐步将文心一言的能力落地到生产的实际场景中。未来,不管是 API 的调用,还是场景的定制,都是通过云去统一对外输出。
从前,云厂商之间的竞争主要体现在比较谁能够在最短的时间内响应客户需求。算力越精准,客户的成本越低。但人工智能时代来临后,AI 会衍生出许多生态的问题,光比弹性已经意义不大。未来,客户需要的也不再只是一张能训练 AI 的 GPU,而是一整套 AI 解决方案。
ChatGPT 打造了云的分水岭,这一战,百度能否胜出?
时间会告诉我们答案。
参考链接:
https://arxiv.org/pdf/2206.07682.pdf
https://openai.com/product/gpt-4
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!
转载请注明:🔥GPT-4震撼发布:AI新纪元,云服务的升级风暴?🔥律师考试大突破,AI基础设施的革命!🔥中国C | ChatGPT资源导航