GPU短缺潮来袭,大模型创业需多少GPU才算够?巨头们如何布局算力争夺战?

文心一言 2年前 (2023) lida
38 0 0

文章主题:GPU, ChatGPT, 大模型

666ChatGPT办公新姿势,助力做AI时代先行者!

以下文章来源于中国企业家杂志 ,作者闫俊文

文|《中国企业家》记者 闫俊文 编辑|李薇

封面图由文心一格生成

中国科技公司和创业者竞相追逐大模型,引发 GPU 芯片需求量的暴增,以及价格的疯狂上涨。

GPU乃ChatGPT之核心力量,支撑其卓越运算与部署。据闻,Azure云端已打造了一支庞大而先进的AI计算矩阵,其中包括逾万台NVIDIA A100显卡,为超凡效能提供了强大基石。这标志着微软在推动人工智能技术的前沿中扮演了重要角色。

千芯科技董事长陈巍告诉《中国企业家》,以 A100 芯片为例,从去年年底到现在,其单价涨了超过 50%,从之前约 5 万元涨到了近 10 万元。由于 A100 已经被美国禁止售往中国内地,国内同行预估仅有 3 万枚存量。英伟达推出的 A100 替代版 A800,国内厂商也是排队拿货,并且常常无货。

🚀服务器行业巨变中,资深工程师王石深有体会。他表示,当前供应链紧张已成为常态,像 NVIDIA 等顶级芯片制造商也不例外。然而,这并不意味着失去先机就无望逆袭。他坚信,”年底之前,供需关系有望回归理性的轨道”。🌟把握机遇,智慧应对,是每个行业玩家的必经之路。

🔥【紧急需求】降温行动正在进行中!🚀🌟 王石信心满满地告诫大家:无需惊慌,这不是一场短期的竞赛,我们还未到达终点线。别担心时间的流逝,每一步都至关重要。🛡️👉 他承诺,无论过去多久,这次的需求调整只会让我们的策略更加精准,成功就在不远处。🔥记得保持冷静,跟随我们的步伐,迎接即将到来的变革。🌍 #降温行动 #策略调整 #成功在望

据《中国企业家》统计,除了阿里巴巴、百度等互联网巨头之外,商汤科技、昆仑万维、毫末智行、360 等公司也官宣了自己的大模型,如果再加上王小川、王慧文、李开复等创业者,中国年内推出的大模型数量已经超过了 10 个。

🌟🚀预计未来几年,中国将涌现大量关键领域的大型人工智能模型,如生物科技的模拟、先进材料的分析、复杂化学反应的理解,乃至自动驾驶和气候预测的先进技术。这些大规模模型的数量可能达到8-20个,甚至是令人惊喜的40+,它们将在推动科技进步和解决实际问题中发挥重要作用。🔍💡 #AI大模型 #科技未来趋势

🚀💡📊AI时代三大支柱:强大的算法智慧,以及无处不在的數據宝藏,而这其中,犹如电力供应的基石——计算能力,更是决定一切的关键🔥GPU的数量,象征着海量的运算实力,是衡量AI研究与创新实力的重要指标🌍不论是初创公司还是行业巨头,谁能掌握并有效利用这股强大的算力脉动,往往就能在AI竞赛中独占鳌头🏆

在这一轮由 ChatGPT 掀起的大模型创业潮里,黄仁勋和英伟达成为了大赢家。

据统计,2020 年,全世界跑 AI 的云计算与数据中心,80.6% 都在用英伟达的 GPU 驱动。截至发稿,英伟达股价为 270 美元,比 2022 年 9 月时的低点 119 美元翻了一番,总市值为 6669 亿美元,成为美国第五大上市公司,比德州仪器、超威半导体(AMD)、高通、英特尔等芯片企业市值相加还要多。

1

五分之二的预算买算力

英伟达已经供不上货了。

近期,马斯克为推进推特内部的新 AIGC 项目,购买了大约 1 万枚 GPU。从 2022 年末,微软就实行了 GPU 资源配额供给,但今年 1 月以来审批时间越来越长,如今部分申请需要等待几天甚至几周才能获批。同时,微软向英伟达预订的数万枚 GPU 芯片,交货无期。

2 月份,出门问问 CEO 李志飞和美团联合创始人王慧文,讨论了大模型创业要花多少钱、入门门槛什么样。李志飞认为,门槛至少需要 5000 万美元,其中的 2000 万美元就是用来购买算力的。王慧文和李志飞不久前相继宣布在大模型领域创业。

根据陈巍测算,国内如果想要直接训练出一个 ChatGPT-3 级别的大模型,常规最少需要 1000 枚 A100 级别的 GPU 芯片,而如果想要实际部署,不考虑冗余和响应速度,对于搜索引擎级别的服务,至少需要 6000 枚 A100 级别的 GPU 芯片。仅仅芯片一项,最小投入就到了近 10 亿元人民币。

一份流传的《阿里 AI 专家交流纪要》显示,百度年初紧急下单 3000 台 8 张芯片的 A800 服务器,这意味着需要 2.4 万枚 A800,而预计全年百度会有 A800 和 H800 共 5 万枚的需求。阿里云预计在今年需要 1 万枚左右,其中 6000 枚是 H800。此外,阿里云也会用到平头哥这种自研的芯片,每年采购大概 3000 枚。

GPU界的巨头 NVIDIA 在2022年9月的高潮中,发布了专为中国市场打造的H100型号GPU,然而命运弄人,这款备受期待的产品遭到了美国出口禁令的阻挠,无法直接送达中国消费者的手中。然而,NVIDIA显然不愿错过这个蓬勃发展的AI浪潮,于是采取了变通策略,以满足市场需求。他们推出了H800版本,尽管在性能上有所妥协,但依然坚守对中国市场的承诺和热情。这款产品的问世,无疑展示了NVIDIA对于中国市场及其技术需求的深刻理解和适应能力,同时也为全球GPU市场注入了一股新的活力。

对照百度发布的文心一言,陈巍测算,按照国内成本估算单次应答成本 5 分钱,如果日访问量 10 亿人次,以月租价格评估,每天云计算成本约 5000 万元人民币,一个月将增加成本 15 亿元,一年增加成本 180 亿元,远远高于训练成本。此前媒体估算,ChatGPT 光 3 月份的电费就得交近 200 万美元,这差不多跟 27.5 万中国居民一个月用电量相当。

《中国企业家》了解到,对于不缺钱的巨头来说,A100 存储量也不多,未来采购以 A800 和 H800 为主,但仍需要 V100 等老式芯片补充。V100 性价比高一些,在云上跑的成本是 A100 的三分之二左右,但运行速度较慢,如果是 ChatGPT-4 级别大模型就不够用了。

也就是说,要想大模型算得更快、更准,必须适配最先进的 GPU 芯片。虽然拿不到最先进的 GPU,但大模型玩家依然在积极囤货。按照上述数字估算,国内对 A800 以及 H800 的需求已经到了数十万级别。

王石说,目前来看,对于算力的需求可以说是上不封顶,有多少算力,都希望能够投身进来,” 只能这么说,越多越好 “。

仅仅靠资本似乎已经玩不转了,大模型之战,最后结局可能还是巨头之间的游戏。

一位头部投资机构的负责人告诉《中国企业家》:” 创投界这点资本是不值一提的,资本它对整个行业的格局不造成影响,本来就这点钱也投不起,中国这几个 VC 加上 PE,今年不在 ChatGPT 上投下 10 亿、20 亿美元,水漂都打不起来,做不了几个训练级,但是百度和华为如果愿意在上面努力去做的话,我觉得投得起。”

2

瘸腿奔跑的中国大模型

不管是阿里巴巴、腾讯、百度等巨头,还是王慧文、王小川等创业者,他们不得不戴着枷锁跳舞:一方面,迫于美国的芯片禁令,他们得不到最先进的芯片源源不断的支持;另一方面,他们还要追赶国外已经到了 ChatGPT-4 水准的技术。

陈巍感慨中国 AI 企业的不易。如果得不到国外先进的芯片,中国企业只能使用比较老旧或者工艺成熟但不那么先进的芯片,综合性能可能只有 A100 的 60%,数量需要更多,跑得却更慢,综合成本要高出 20% 至 30%,对于企业来说,这很有可能是赚钱和不赚钱的分水岭,活下去和活不下去的分水岭。

处处受限,起步又晚,但大模型也得干下去。

王小川在接受媒体采访时说,晚了也得干。美国人之前把核弹造出来,中国就不造了吗?这跟创业公司本身没关系,是中国要不要做的问题。

王石认为,中国企业没必要 ” 芯片焦虑 “。他提到了前几年 ” 挖币 ” 造成的硬盘泡沫,结果造成了 SSD(硬盘)的一地鸡毛,整个硬盘厂商在 2022 年整年可能都在消耗库存。

GPU 只是大模型创业链条中的一环,机房环境、算法、人才等等也必须配套跟上。

IT 设备特别是计算设备的迭代和更新太快,如果在没有准备好的时候,放在库房里没有用,放一年,价值就浪费了。” 现在都在用 A800,今年下半年就有 H800,性能提升很快,这个时候抢到了 A800,但如果还没有用起来,是没有价值的,永远会有新产品出来。” 王石表示。

王石还补充说,现阶段,算力的供应无论如何是不够的。这有两个策略,一个是把后台的产能跟上,另一个则是优化效率,通过算法等技术手段提升可用算力的效率。

3

英伟达成最大赢家

阿里和腾讯近期在算力市场都有重大动作。

阿里云在 4 月 11 日峰会上说,阿里云进行有史以来最大幅度的一次降价,通用计算将大幅降低,对比上一代主售产品最高可下降 40%,还发布了 ” 飞天免费试用计划 “,开放计算存储、数据库、机器学习等核心产品免费试用。

腾讯则发布了新一代高性能计算集群 HCC,采用了国内首发的英伟达 H800 GPU。有数据称,腾讯云新一代集群的算力性能较前代提升高达 3 倍,是国内性能最强的大模型计算集群。

不管哪家,他们都摆脱不了一个名叫英伟达的厂商,其创始人黄仁勋,江湖人称 ” 黄教主 “,他多次为此次 ChatGPT 浪潮鼓风。

” 我们正处于 AI 的 iPhone 时刻。” 黄仁勋在 3 月 2023 年 GTC 大会上说,” 初创公司正在竞相打造颠覆性产品和商业模式,科技巨头也在寻求突破。”

在此次大会上,黄仁勋发布了 ChatGPT 专用芯片 H100,而且他宣布,将会把由八块旗舰版 A100 或 H100 芯片集成的超级 AI 计算系统通过租赁的方式开放给企业。每月租金为 37000 美元,以加速推动这轮大语言模型引领的 AI 繁荣。

外媒一份数据显示,英伟达占据了 95% 图形处理器的市场份额。IDC 数据显示,国内 GPU 服务器在 2021 年占国内服务器市场规模的比例超过 88.4%,英伟达的产品占比超 80%。

联想集团 CTO 芮勇说,目前来看,还是英伟达的天下,但未来不确定,因为大家对算力的需求只会越来越大。

行业人士说,未来 GPU 和算力的需求一定是多元的,或者说异构的。到了现在算力需求大爆发的时候,带来的第一个变化就是在这个领域多元化的蓬勃发展。

水大鱼大,但虾米和浮游生物等也会有存活机会。多元带来了更多的机会,但是最后谁能胜出,就看谁的战略定力,能持续地投入。

(应采访对象要求,文内王石为化名)

GPU短缺潮来袭,大模型创业需多少GPU才算够?巨头们如何布局算力争夺战?

GPU短缺潮来袭,大模型创业需多少GPU才算够?巨头们如何布局算力争夺战?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章