文章主题:AIGC, AI服务器, GPU芯片, 英伟达
图片来源@视觉中国
文|锌财经,作者|孙鹏越,编辑|大风
🔥🔥AIGC领域正经历一场前所未有的繁荣盛宴,各大热门模型如ChatGPT和AUTOGPT引领潮流,国内的文心一言也不甘示弱,热度飙升,频频成为热议焦点。🔥🔥每个阶段都有新秀涌现,市场犹如交响乐般激昂,技术与创新的火花不断闪耀。SEO优化词汇:🔥#AIGC热潮🔥#ChatGPT与AUTOGPT引领🔥#文心一言热搜🔥
🚀全球AI软件市场潜力巨大!据華西證券分析,预计到2025年,这一领域的规模将膨胀至惊人的1,260亿ドル,增长率高达41.02%,期间的复合增长速度令人惊叹。随着科技的快速发展和数字化转型的加速,AI软件正引领新一轮经济浪潮。🚀
ChatGPT繁荣的背后,是堪称天文数字的算力支持。
🌟📊了解最新AI技术动态吗?💡通过AI训练与推理,这两位市场巨头正引领行业革命!🔍据统计,单个大型语言模型的训练成本就高达惊人的20亿 💵美元之巨,这是AI训练服务器领域的显著开销。而ChatGPT的兴起,更是以45亿美元的推理服务器需求为起点,其影响力不容忽视。🚀这样的市场规模不仅展示了技术进步的力量,同时也揭示了AI基础设施建设的重要性。💡无论是模型的训练还是日常的推理服务,都对高性能计算平台提出了极高的要求。💻对于寻求技术升级和商业机遇的企业来说,这无疑是一个巨大的市场信号,也是优化资源分配的关键时刻。🔍想要紧跟潮流?关注AI硬件与服务的发展趋势吧!🏆
一时间,ChatGPT们层出不穷,而它们背后的AI服务器赛道也开始随之水涨船高。
算力决定ChatGPT
🌟💡 算力之魂,揭秘大模型背后的强大动力!🚀想要解锁超凡智能的神秘力量?GPU芯片数量就是关键指标!🔍每一个高级别的GPU晶体管,都是提升计算效能的硬核引擎。越多的GPU芯片,意味着更强的算力场,为模型的训练和推理提供源源不断的能源。🔥但别忘了,这不仅仅是硬件堆砌的游戏,高效的算法优化同样重要,它就像润滑剂,让这些GPU芯片运转得更加顺畅。💡SEO优化提示:使用”超凡智能”、”核心引擎”、”GPU晶体管”、”计算效能”、”高效算法优化”等关键词,提升文章的相关性和搜索引擎可见度。记得,每一次技术的进步都在寻找那个临界点——让算力与智慧无缝对接!🚀
ChatGPT所需要的算力并不是固定的,反而是逐次递增。ChatGPT越聪明,背后的代价是所需算力越来越多。
🌟【揭秘AI巨头】揭示GPT-3与PaLM的训练天价!🔍🚀据业内权威估算,GPT-3的神秘“出厂价”高达惊人的5000万美元一次!平均每轮迭代,这技术巨头的成本直线上升,经济实力令人咋舌。💰相比之下,Google的PaLM模型更是奢华,其高昂的训练费用突破11200万美元大关,堪称AI领域的豪华跑车。🚗尽管价格不菲,但这背后无疑是科技巨头对创新和人工智能未来投入的坚定信念与豪情壮志。💪但他们也提醒我们,技术进步的同时,成本控制与社会效益同样重要。🌍欲知更多细节,敬请关注未来深度解析,让我们一起探索这场科技盛宴背后的商业逻辑与伦理挑战。🎉
Microsoft’s cutting-edge AI supercomputer, fueling the growth of ChatGPT, is a massive $1 billion investment made by the tech giant in 2019. Equipped with thousands of NVIDIA A100 GPUs and bolstered by an impressive network of 60 data centers housing tens of thousands more, this top-of-the-line supercomputer ensures unparalleled computational power. 🚀💻🌐
为了满足与日俱增的ChatGPT算力需求,微软宣布将推出基于英伟达最新旗舰芯片H100 GPU和英伟达Quantum-2 InfiniBand网络互连技术,推出Azure可大规模扩展的AI虚拟机系列,以显著加速AI模型的开发。
看上去,ChatGPT的背后就是满篇的英伟达、英伟达和英伟达。
实际上,英伟达作为硬件霸主,不仅在消费级市场占据大部分市场,也是AI服务器芯片领域的头号选择。
物以稀为贵,目前英伟达的旗舰芯片H100,在一周时间涨价近7万元人民币,售价普遍高达30万元左右;次旗舰A100芯片在短短三个月多时间里,从6万元一路涨至9万元,涨幅超过50%。
不仅涨价买不到,甚至美国还禁止英伟达卖芯片。在去年8月,美国政府发布出口管制政策,禁止英伟达将A100、H100两款芯片售往中国。
为了不丢掉中国市场,又符合美国出口管制,英伟达随后推出“性能阉割版”A800、H800芯片。但这两款芯片同样被供不应求的市场一抢而空,价格也随之水涨船高。
以百度阿里腾讯为首,国内大部分互联网公司都已经宣布进军大模型。市场统计,从ChatGPT之后,中国年内即将推出的大模型数量已超10个。
如果想要达到ChatGPT的水准,至少需要3000枚A100芯片,以9万/枚的价格来算就是2.7亿人民币才能完成一个大模型部署;10个大模型就需要3万枚A100芯片,27亿人民币。
加上后期训练成本,所需要的芯片更是天文数字。但按照目前英伟达的交货时间来看,想要买到足够的芯片,可不是一件容易的事情。
恍惚间,矿卡时代又再次来临。
再次坐在风口的英伟达
在前些年虚拟货币火热的时候,作为挖矿必备的显卡提供商,英伟达几年时间大赚特赚了48亿美元。如今又靠着ChatGPT活出第二世,让历史再次重演。
面对市场需求激增,借AI浪潮翻身的英伟达很鸡贼的推出“算力租赁”服务。
3月21日,2023年GTC大会上,英伟达创始人兼首席执行官黄仁勋推出NVIDIA DGX Cloud™,可以为企业提供训练生成式AI高级模型所需的基础设施和软件。DGX Cloud每个实例配有8个H100或A100 80GB GPU,企业可以“云租赁”的形式按月租用DGX Cloud集群,价格为每实例3.7万美元/月起。
英伟达真的没有替代品吗?为什么企业宁愿选择租赁,也不选择其他GPU芯片商?
IDC数据显示,国内GPU服务器在2021年占国内服务器市场规模的比例超过88.4%,使用英伟达的产品占比超80%。
AI大模型所需要的芯片在处理信息的精细度和算力速度要求更高,在超算领域,双精度浮点计算能力FP64是进行高算力计算的硬性指标。而英伟达的H100、A100是目前唯一具备这些能力的芯片。
美国卡脖子的并不只有英伟达芯片的售卖,从技术、设备、材料都限制中国企业的研发。但在美国的重重限制下,中国企业仍然顶着压力跑出几匹黑马。
根据IDC最新发布的《中国加速计算市场(2021年下半年)跟踪报告》,2021年全年中国AI服务器市场规模达350.3亿元,同比增长68.6%。
在企业级GPU芯片领域,中国厂商壁仞科技在2022年推出“BR100”芯片、天数智芯推出了“智铠100”芯片、寒武纪推出了“思元270”芯片。
其中壁仞科技称,BR100拥有全球最高算力,峰值算力达到了市场在售旗舰产品的三倍以上,16位浮点算力达到1000T以上、8位定点算力达到2000T以上,单芯片峰值算力达到PFLOPS级别。
虽然数据良好,但缺少至关重要的处理FP64的能力,依然无法完全取代英伟达H100、A100俩兄弟。
并且,英伟达使用的CUDA平台早已成为应用最为广泛的AI开发生态系统,只支持英伟达的Tesla架构GPU,在现阶段根本无法用国产芯片取代。
虽然中国芯片厂商正在对GPU芯片领域奋起直追,但技术差距和美国卡脖子仍是关键性问题,还需要一段时间的努力。
不止AI服务器
借着大模型东风一路上扬的不止AI服务器和GPU芯片,还有储存器市场。
ChatGPT的运行条件包括训练数据、模型算法和高算力,其中高算力的底层基础设施是完成对海量数据、训练的基础。
最显而易见的特点就是ChatGPT经历数次迭代之后,参数量从1.17亿增加到1750亿,近乎两千倍的增长,也给计算存储带来极大的挑战。
AI新时代开启,预计全球数据生成、储存、处理量将呈等比级数增长,存储器将显著受益。而计算存储是ChatGPT的重要基石,随着阿里、百度等科技巨头类ChatGPT项目入局,整体计算存储市场需求将进一步快速提升。
随着AIGC持续火热,北京、上海、广州等数字经济发达地区也出台了政策推进智算中心建设。比如,北京市提出“新建一批计算型数据中心和人工智能算力中心,到2023年,培育成为人工智能算力枢纽”;上海市提出“布局建设一批具有高性能、高吞吐的人工智能算力中心,推动公共算力服务平台建设”等。
而各行各业都将面临着ChatGPT的洗礼,在迎新一轮人工智能的浪潮下,和AI相关的行业将会迎来广阔的市场空间。
而中国企业也势必会冲破美国掣肘,打破不公平的桎梏。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!