🔥GPT-4升级大浪潮:ChatGPT4的革新与AI应用爆炸性增长?🔍图像处理+超长文本,Open
文章主题:
(报告出品方:东吴证券)
🌟【超前探索】ChatGPT迭代升级!🔥🚀GPT-4,革新性巨作,突破传统束缚,引领未来智能浪潮!🔍它不仅是文字大师,更拥抱图像世界,多模态交互让创新无界!🎨强大的语言理解力,精准如丝,为你的每一次沟通增添智慧火花。🔍OpenAI的匠心独运,推动大语言模型迭代,不仅满足了用户期待,还催生出一系列令人眼前一亮的应用场景。🚀从技术到实践,GPT-4正引领着行业变革,打开无限可能的大门。🌍准备好迎接这场知识革命吗?让GPT-4与你携手探索,开启智慧新纪元!🌐📝注意:请勿提及作者或联系方式,SEO优化已融入文本,确保内容对搜索引擎友好。
1.1. GPT 迭代更新,人工智能掀起科技潮。
🎉【技术革新】GPT四代升级,AI语言新高度!🌟🔥ChatGPT,OpenAI的创新力作,引领自然语言生成潮流!🚀基于Transformer架构(即GPT-3.5),它以海量语料库为根基,通过指示学习与RLHF的智慧融合,不断优化模型实力。🌍无论是学术探讨还是日常闲聊,ChatGPT都能以人类般流畅的响应,展现卓越的理解力和生成能力。🚀2023年3月15日,OpenAI震撼发布GPT-4,迈向多模态新纪元!🔍相较于前代,GPT-4不仅能处理超长文本(2.5万字),还能深度解析图像信息,问题解决更为精准、全面。💡ChatGPT4的出现,无疑将AI生成内容(AIGC)推向了新的高峰!欲了解更多这股技术革命的火花,敬请关注!🔥别忘了,你的每一次探索,都是推动未来前行的力量!💪#GPT升级 #ChatGPT4 #人工智能进步
🌟ChatGPT引领革命,用户体验翻天覆地!🚀仅短短5日,用户量激增百万,2个月后破亿,一路狂飙至6.72亿,打破消费级应用增长速度记录!📈从1830万的起点飞跃到顶峰,其势如虹,无人能挡。🔥最新版GPT-4,基于GPT-3.5的卓越升级,语言模型更强大,多模态功能解锁新可能——图像理解力崭露头角,3.2万字符的大容量输入更是让人惊艳!🌍无论何种语境或复杂测试,它都展现出超乎想象的表现,逼近人类智慧巅峰。🏆为用户带来前所未有的使用体验,ChatGPT正改写游戏规则!🔥
🌟ChatGPT引领AI革命,创新产品遍地开花🚀无论是办公环境的微软Office与Teams Premium,还是编程界的Viva Sales和Stripe,或是软件领域的Duolingo以及国内百度的“文心一言”,各大巨头纷纷拥抱ChatGPT,将其融入日常操作中。💼💻📚Office应用程序已集成GPT-4, Teams Premium新增Chat GPT功能,实现了智能章节撰写与字幕翻译,让工作更高效流畅。💻💬同时,Viva Sales借助AI的力量,为邮件客户问题提供精准回复建议, Stripe则通过GPT-4扫描网站,为客服人员提供关键信息概览,节省了大量时间。📚📊语言学习订阅层也因Duolingo的加入而焕然一新,GPT-4的智慧加速了全球用户的语言学习进程。🌍🌟国内品牌紧跟步伐,百度“文心一言”正式登场,AI技术正以前所未有的速度渗透到各行各业,开启智能新时代。🌐🎉
1.2. OpenAI 模型演进,人工智能向应用拓展
🌟【OpenAI技术引领未来】🚀🔥GPT-4革命性模型,全能文本与图像大师!🔍💡这款尖端的AI工具,打破传统边界,无论是文字处理还是图像分析,都能轻松应对,展现超凡生产力。它可以吸收并转化各类信息,用户只需下达指令,即可驾驭25000字以上的深度创作。📝🌟学术战场上的明星,GPT-4在标准考试中独领风骚,语言技能更是多语种下的佼佼者。🗣️无论哪种场景,它都能迅速适应,提供精准且流畅的输出。🔍图像世界不再复杂,GPT-4能直接解析带图论文,深度理解并分析图像内容。🎨同时,它还能生成、编辑各类多媒体内容,创意无限,技术写作更是得心应手。💻💡不止于此,GPT-4还能与用户互动,共同迭代创新,无论是音乐创作、剧本编写还是个性化写作风格学习,都能成为你的得力助手。🎵🎬欲体验未来科技的魅力,OpenAI GPT-4是你不可或缺的伙伴!🌟#OpenAI #GPT-4 #人工智能未来
🌟AI内容生成(AIGC)🚀是生产力革新者,拥有广泛且深入的应用潜力。它能高效地利用无标注数据进行自监督学习,辅以少量标注数据的迁移学习,生成海量、高质量且成本效益显著的内容。这种革命性的增长方式在生产效能上展现出了前所未有的提升。🌍💡AIGC已熟练应用于文本和代码创作,图像识别与生成,它如同一把多刃剑,在传媒、电商、娱乐等多个领域中熠熠生辉。🎬💻同时,它正逐步渗透至视频和游戏等新兴领域能,为各行各业的创新和发展开辟新路径。🚀未来,AIGC将继续引领技术潮流,为各行业带来更多创新可能,开启一个内容生成的新纪元。🌍🌟#AI生产力革命 #应用广泛 #未来发展
1.3. Open AI 赋能下游应用,AI+降本增效
以 Azure OpenAI 为例:AI 技术模型全覆盖。AI 技术模型全家桶,包含 GPT4.0 以 及后续版本、DALL-E2、Codex、Embeddings 神经网络、VALL-E、认知学习成长、机器 学习等,可实现 4 种用途:1)企业及客户可利用 Azure OpenAI 全家桶构建自己的大型 预训练 AI 模型;2)利用全家桶对 AI 模型进行数据和参数的微调与提升;3)通过内置全 家桶检测错误与潜在风险;4)利用全家桶实现角色访问控制和企业级云安全合规。
OpenAI+传统搜索引擎=AI 智能搜索引擎。ChatGPT 能生成和理解类人类思维方式 与上下文联系的结果,而传统的搜索引擎只是给出网页的链接,需要用户自己阅读、点 击和判定。无论是知识的获取效率、回答问题的深度,还是交互的延展性,ChatGPT 都 对传统搜索引擎是一种颠覆式进化。
OpenAI+办公软件,以 Office 全家桶与微软 Teams premium ChatGPT 为例。 ChatGPT+Office 三大件 Word、Excel、PowerPoint 可完成从文字创作到可视化全程服务。 ChatGPT 可以根据用户的描述需求自动撰写文档内容,缩短文档的创作时间;根据已形 成文档内容智能推荐文档格式、排版等;并根据用户描述制作个性化 PPT,同时智能生 成朗读语言助力 PPT 演示。Teams Premium ChatGPT 同样具有多样智能服务:1)自动提供实时翻译;2)自动生成文本型会议纪要;3)自动记录发言人员对话和内容;4)根 据讨论上下文自动生成任务等。
2. 云服务器优化配置算力资源,是主要算力供给方式
云计算属于分布式计算,满足各类算力需求。云计算可以通过网络“云”将所运行 的巨大的数据计算处理程序分解成无数个小程序,再交由计算资源共享池进行搜寻、计 算及分析后,将处理结果回传给用户,通过这种方式可以实现随时随地、便捷地、随需 应变地从可配置计算资源共享池中获取所需的资源与架构,包括存储、数据库、服务器、 应用软件及网络等,灵活调配计算机相关算力存储资源。
AI 语言模型扩大算力需求,云计算进一步发挥资源优化配置功效。面对 AI 的需求 提升,云计算可带来 4 个方面的提升: 1.资源共享和优化:云计算允许多个用户共享同一台服务器或一组服务器的计算资 源。这意味着,与每个用户都拥有自己的独立服务器相比,云计算可以通过提高资源利用率来减少服务器的总数量。 2.弹性可伸缩:云计算服务提供了高度的弹性和可伸缩性,使得用户可以根据实际 需求调整所需的计算资源。在计算需求降低时,用户可以减少资源使用,从而减少服务 器的数量。而在计算需求增加时,用户可以快速扩展资源,而无需购买新的服务器。 3.成本效益:云计算通常采用按需付费的模式,用户只需支付实际使用的计算资源。 这种支付模式降低了用户购买和维护服务器的成本,使得更多企业倾向于使用云计算服 务而不是购买自己的服务器。 4.更快的创新和部署:云计算使得企业能够更快地开发和部署新的应用程序和服务。 这减少了对于购买、配置和维护自有服务器的需求,从而抑制了服务器数量的增长。
云计算为 AI 提供算力支持,实现降本增效。由于 ChatGPT 等一系列大规模模型对 算力要求较高,厂商自建足够算力的数据中心需要耗费巨大的成本以及昂贵的后续运维 成本,而云计算服务可以有效节省早期支出,并且大规模的算力集群还具有集群优势以 提升计算性能。OpenAI 的 ChatGPT 和其他关键 AI 产品依赖于微软 Azure 云计算服务, 通过 Azure 的 HPC、弹性、数据存储和计算服务来完成模型计算和算法调试,没有云计 算,ChatGPT 的训练时间将被一再拉长,运用云计算后 GPT-3 等模型的训练成本下降了 80%以上,从首次训练开销 1200 万美元降至140 万美元。
云算力市场规模持续扩大,下游应用渗透提升。云算力市场根据 Gartner 统计,2021 年以 IaaS、PaaS、SaaS 为代表的全球公有云市场规模达到 3307 亿美元,增速达 32.5%。 其中,IaaS、PaaS、SaaS 市场规模分别同比增长 42.7%、39.3%、23.6%至 916 亿美元、 869 亿美元、1522 亿美元。2021 年亚马逊、微软、阿里云为全球 IaaS 前三厂商,占据 69.54%市场份额,国内厂商阿里云、华为云、腾讯三家合计占全球 17%的市场份额。目 前国内游戏、视频、电商和金融是主要应用领域,医疗、传统工业和政务领域渗透率逐步增加。
AI 与云计算结合,提升大数据分析计算能力。AI 与云计算结合有助于通过自动化 冗余活动、识别、排序和索引各种类型的数据、管理云中的数据事务、识别整个云存储 基础设施中的任何故障,帮助改善数据管理,优化管理流程。例如阿里云推出的飞天智 算平台提供公共云和专有云两种模式,为各类科研和智能企业机构提供强大的智能计算 服务,可将计算资源利用率提高 3 倍以上,AI 训练效率提升 11 倍,推理效率提升 6 倍。 云计算的本质是将计算资源进行集中管理和调度,从而满足不同用户的需求,而这 些计算资源的核心就是服务器。因此,随着云计算需求的提升,服务器数量的提升也是 必然的趋势。AI 为云计算所带来的巨大计算量,将直接带动服务器数量的提升。
3. ChatGPT 引爆算力需求,拉动高端芯片市场扩张
3.1. 人工智能架构以 AI 芯片为基
人工智能 IT 技术栈分为四层架构,算力是基础。人工智能架构由芯片层、框架层、 模型层和应用层四层架构组成。其中,芯片层主要是指人工智能芯片,为整个架构提供 算力基础支撑;框架层主要包括深度学习训练和推理框架平台和数据平台等;模型层主 要是自然语言处理(NLP)、计算机视觉(CV)、音视频、多模态等各种大模型;应用层 则是面向各种应用场景的人工智能专业服务。下游应用体验的升级需要大模型不断调优 迭代,在深度学习框架内进行大规模模型的训练和推理,每一次都对芯片提供的算力基 础提出要求,AI 芯片决定了平台的基础架构和发展生态。
AI 芯片主要有 CPU、GPU、FPGA 及 ASIC,以 GPU 为主的并行计算为 AI 提供 了主要生产力
1)CPU(中央处理器)擅长逻辑控制,用于推理及预测。CPU 主要由 ALU(算术逻 辑单元)、CU(控制单元)与 Cache(临时指令存储器)构成。其中,ALU 由”And Gate” (与门)和”Or Gate”(或门)构成的算术逻辑单元,主要功能是进行二位元的算术运算, 约占 CPU 空间 20%;CU 则负责程序的流程管理。CPU 的执行周期是从内存中提取第 一条指令、解码并决定其类型和操作数,执行,然后再提取、解码执行后续的指令,重 复循环直到程序运行完毕。CPU 具备强大的调度、管理与协调能力,但受限于单行运算 导致算力较低。
2)GPU 图形处理器,并行计算满足强大算力需求。在结构方面,与 CPU 相比, GPU 中同样具备 ALU 与 CU 等架构,但 ALU 数量与体积占比更多,且采用数量众多 的计算单元和超长流水线,具备高并行结构,通过多核并行计算支撑大算力需求,且拥 有更高浮点运算能力,在处理图形数据和复杂算法方面拥有比 CPU 更高的效率,满足 深度学习领域海量数据运算的需求。但 GPU 管理控制能力弱,无法单独工作,需由 CPU 进行控制调用。
3)FPGA 半定制化芯片,无限次编程支持高灵活性。FPGA 称为现场可编程门阵 列,基本结构包括可编程输入输出单元和可配置逻辑块等。基于其结构,用户可根据自 身的需求进行重复编程重组电路,具有高度实时性和灵活性,可以同时进行数据并行和 任务并行计算,在处理特定应用时有更加明显的效率提升,可以实现底层硬件控制操作 技术,为算法的功能实现和优化留出了更大空间。
4)ASIC 全定制化芯片,高速处理速度叠加低功耗表现。ASIC 是为专门目的为设 计的集成电路,为实现特定要求而定制的专用 AI 芯片,能够在特定功能上进行强化, 具有更高处理速度与更低能耗。缺点是研发成本高、前期研发投入周期长,且由于定制 化属性,可复制性一般,缺乏一定灵活性。深度学习算法稳定后,AI 芯片可采用 ASIC 设计方法进行全定制,使性能、功耗和面积等指标面向深度学习算法做到最优。
3.2. GPT 拉动算力提升,带动高算力芯片市场量价齐升
ChatGPT 数据量扩张,算力需求持续增加。历代 GPT 的参数量呈现指数级增长, ChatGPT 的总算力消耗约为 3640PF-days(每秒计算一千万亿次,需要计算 3640 天);GPT4 在 ChatGPT 的基础上增加了图像、视频等交互信息类型,内容容量扩大到 2.5 万字,所需的算力规模远大于单纯的文字交互。OpenAI 首席执行官 Sam Altman 接受公开采访 表示,GTP-5 在 2024 年底至 2025 年发布,它的参数量为 GTP-3 的 100 倍,需要的计 算量为 GTP-3 的 200-400 倍。随着 ChatGPT 的用户和应用范围的持续扩大,数据处理 的压力增大,将提出庞大的算力需求。
算力需求带动高算力芯片市场,AI 芯片市场规模持续扩张。机器所产生的数据量 在 2018 年首次超越人类所创造的数据量,从 2019 年,每年几乎以倍数的幅度来增加, 从 2020 年到 2025 年,全球数据增量将达到 157Zetabytes,5 年 GAGR 高达 89%。庞大 的数据增量,必须运用各种具备高速运算的人工智能芯片来过滤、处理分析、训练及推 理,这将持续带动 AI 芯片,尤其是高算力芯片需求。根据华经产业研究院发布的《2021- 2026 年中国 GPU 行业发展监测及投资战略规划研究报告》,2020 年全球 GPU 行业市场 规模达254.1 亿美元,预计 2027 年将达到 1853.1 亿美元,复合年均增长率 32.82%,GPU 市场保持高速增长态势。同时根据亿欧智库预测,2025 年我国 AI 芯片市场规模将达到 1780 亿元,2019-2025GAGR 可达 42.9%。
AI 风潮席卷,芯片价值量有望提升。AI 技术的蓬勃发展和广泛应用,导致对高性 能计算能力的需求空前旺盛。AI 芯片作为行业的核心组件,其价格也随之攀升,成为科 技产业的新增长点。随着 AI 模型复杂度的增加和参数量的指数级扩张,对计算能力的 要求不断提高。例如预计在 2024 年底至 2025 年发布的 GPT-5,其参数量将是 GPT-3 的 100 倍,所需算力为 GPT-3 的 200-400 倍。由于高性能 AI 芯片在满足这种日益增长的 算力需求方面具有不可替代的作用,算力快速增长需求下,芯片供给的不确定性有望提 升芯片价格提升。
3.3. 构建推理/训练服务器需求计算模型,测算未来空间广阔
算力紧缺,ChatGPT 频繁下调提问限制次数。鉴于使用人数过多,GPT-4 提问上限 次数先后从每 4 小时的使用上限从 100 次下调到 50 次,近日 ChatGPT Plus 又一次将 GPT-4 提问次数下调至每 3 小时 25 次,同时预告再会继续下调提问次数。 GPT-4 发挥预期效果需服务器数量与芯片所提供算力支撑。GPT4 推理与运算发挥 预期能力所需服务器数量主要依赖于 2 个核心变量,模型参数与训练/推理 Token 量, 不考虑 GPT4 当前回答次数限制与图像处理功能,在峰值容纳一切原则下,计算框架大 致如下: 推理所需服务器=每秒处理峰值 Token 所需 FLOPS/(一台服务器提供的 FLOPS*推 理下 FLOPS 利用率); 训练所需服务器=规定时长内训练完所有 Token 所需 FLOPS/(一台服务器提供的 FLOPS*训练过程 FLOPS 利用率)
OpenAI 官方尚未完全公开 GPT4 数据,根据 the Decoder 报告,此次 GPT-4 是模型 参数数量为 1 万亿(GPT3 参数为 1750 亿);据硅谷猜测,GPT-4 用于训练数据量为 9 万亿 Token。
基于英伟达 A100 进行测算,GPT4 发挥预期能力下推理过程所需服务器数量约为 6652 台。我们通过单个模型参数单个 token 所需要的 FLOP 次数、模型参数、每秒处理 token 数量、服务器所需 GPU 数量(按照 DGX A100 进行测算)、单个 GPU 峰值 FLOP 次数以及利用率为 21.6%进行测算,得到推理所需服务器结果。
中关键假设为每秒处理 token 数量,其测算过程主要为每日提问人数*每人提问 数量*每个问题回答字数,同时按照中英文翻译比重 1.6:1 为基准,在每个单词 token 为 1.3 前提下计算,得到每秒处理 177 万 token。且当前数据建立在 GPT4 提问次数受限的 现实条件与 OpenAI 网站 2 月份日活数据下,等待 GPT4 发挥预期功能,开放图像处理 能力,日活、提问数量、回答字数等假设量将迅速增长,所需服务器仍存在增长空间。
在 6 个月训练时间假设下 GPT4 训练需要服务器数量为 1391 台。同样根据通过单 个模型单 token 所需要的 FLOP 次数、模型参数、每秒处理 token 数量、服务器所需 GPU 数量(按照 DGX A100 进行测算)、单个 GPU 峰值 FLOP 次数以及利用率为 46.2%进行 测算,得到推理结果。
测算过程关键量仍在每秒训练 Token 量,这取决于训练时间。OpenAI 在 6 至 8 个 月之前就开始训练 GPT-4,在总数 9 万亿 Token 量+6 个月训练时间假设下,平均每秒训 练量为 578,704Token。根据一台服务器每秒提供的 FLOPS 得出训练所需服务器数量。
未来大规模参数模型持续叠加算力需求,算力供需缺口亟待高性能芯片补充。考虑 过去 5 年中模型参数呈指数增长,LLM(大语言模型)每次迭代都意味着模型训练量与 推理量的指数级增长。随着算力时代到来,未来对服务器数量与芯片算力均存在巨大需 求,市场空间难以探底。
4. 算力时代凸显芯片价值,国产芯片仍处追赶阶段
4.1. AI 服务器依赖高性能芯片供给
算力时代依托 AI 服务器,浪潮信息服务器蝉联国内第一。根据 IDC 最新发布的《中 国加速计算市场(2021 年下半年)跟踪报告》,2021 全年浪潮信息 AI 服务器中国市场 占有率达 52.4%。自 2017 年以来,浪潮信息已连续 5 年保持中国 AI 服务器市场份额超 过 50%,全球范围内,人工智能服务器市场规模达 156 亿美元,约合人民币 1006 亿元, 而浪潮信息市场占有率达 20.9%,保持全球市场第一。
AI 服务器核心在于高性能芯片。参数规模、训练数据随着模型多模态发展呈现量 级增长,而消化、处理数据的能力,即算力,才是制约模型发挥与其能力的关键因素。 在满足算力的最终诉求下,相较于大量叠加服务器台数,提升算力芯片性能同样不可或 缺。以英伟达 GPU 芯片 H100SXM 为例,FP16 Tensor Core 算力为 1979TFLOPS,一台 搭载 8 片 H100SXM 的服务器算力是之前所假设的 GPUA100 服务器 50 倍。 GPU 占据 AI 芯片大类市场,全球应用最为广泛。AI 芯片在不同领域对于指标的 需求不同。训练过程中,GPU 由于具备并行计算高度适配神经网络,支持高速解决巨额 工作量;推理过程中仅稀疏结构支持一项便能带来 2 倍性能提升。由于 GPU 可兼容训 练和推理,高度适配 AI 模型构建,在全球 AI 芯片中应用最为广泛。2021 年中国 AI 芯 片市场中,GPU 占比达到 91.9%。据 IDC 数据,预计到 2025 年 GPU 仍将占据 AI 芯片 8 成市场份额。
英伟达主要 GPU 产品技术指标表现领先,是全球 GPU 算力芯片龙头。英伟达的 GPGPU 目前在全球应用最为广泛,其 GPU 产品的典型代表 V100、A100、H100GPU 分 别采用 Volta、Ampere、Hopper 架构。A100GPU,INT8 算力达 624TOPS;H100GPU, INT8 算力达到 1513TOPS。此外,2006 年英伟达发布的 CUDA 平台是现今全球应用最 为广泛的 AI 开发生态系统。通用 GPU 与 CUDA 生态系统奠定英伟达引领 AI 芯片的根 基。当前全球主流深度学习框架均使用 CUDA 平台,2021-2022 年全球独立 GPU 市场 中英伟达份额基本维持在在 80%左右。
服务器同样依赖芯片供给,把握芯片才能把握算力时代。Counterpoint 发布的报告 显示,2022 年服务器 CPU 的市场份额中,英特尔占超七成,位列第一,AMD 拿下约两 成,排名第二,两家美企联手占据 9 成市场,而浪潮信息需要的 AI 服务器芯片也来自 美企英伟达。尽管自 2019 年起,浪潮信息前五大供应商的名字均隐去,但历史数据显 示,英特尔仍稳坐最大供应商之席。上游芯片高度依赖外部企业成为浪潮信息发展的关 键制约因素,尤其在美国商务部 3 月份将浪潮列入实体清单后,上游芯片进行国产替代 显得更为紧迫。算力时代背景下,自主掌握高端芯片技术成为兵家必争之地。
4.2. 主流芯片限制进口,利好国产化芯片自主发展
海外龙头垄断高端芯片技术,国产芯片仍处追赶阶段。以 GPU 细分赛道来看,目 前国内自研 GPU 的领军企业主要是寒武纪、景嘉微、华为昇腾等,其中成立最早的是 景嘉微,主打产品有 JH920 独立显卡。行业内专家称,从产品参数来看,景嘉微的 JH 920 的性能与英伟达在 2016 年发布的 GTX 1050 相仿,虽然仅相差 6 年,但考虑到模型 与算力发展之迅速,整体而言国产 GPU 的现状并不算乐观,虽然在特殊领域可满足部 分的需求,但是在中高端领域及硬核的算力需求仍存着较长的追赶道路。
主流的 AI 芯片限制进口,国内 AI 产业发展面临阻碍。2022 年 10 月美国对中国半 导体进行三方面限制,在 AI 领域限制中国获取等效 8 Int 600 TOPS 算力的芯片。英伟 达针对中国市场推出了符合新规的 A800 芯片,相比 A100 芯片,A800 在搭载 2 个 GPU 的 NVIDIA”NVLink”桥接器连接下,互联标准由 600GB/s 降为 400GB/s。面临 V100/A100/H100 芯片都进口受限,互联标准下降,英伟达等头部企业维持垄断地位,国 产大模型算力需求和国内 AI 产业发展面临阻碍。
自主可控趋势下,利好国内服务器供应厂商。近年来中美之间的贸易摩擦不断升级, 导致双方在技术领域的竞争愈发激烈。例如美国政府对华为等中国科技企业实施了一系 列制裁措施,试图限制这些企业获取关键技术和先进芯片。这些制裁措施无疑给中国高 端芯片产业的发展带来了巨大压力。目前自主可控进程中,国内企业在设计、制程、封 装和测试等各个环节取得了显著进步,部分产品性能已经接近国际先进水平。另一方面, 国家和地方政府也在积极出台各种政策措施,支持芯片产业的创新和发展,培育具有国 际竞争力的芯片企业。目前 ChatGPT 引爆的 AI 潮将拉动云服务器数量的增长,其国内 相关供应厂商将有望受益于下游 AI+级应用所带来的算力需求增长,国内云服务器与算 力相关厂商有望直接受益。
5.投资分析
我们看好算力芯片及服务器需求剧增下相关零组件的成长空间。 CPU、GPU 是服务器最主要的部件,是衡量服务器性能的首要指标,需具有大数 据量的快速吞吐、超强的稳定性、长时间运行等能力,由算力芯片提供算力支持。根据 IC Insights 统计,2026 年预计全球 CPU 出货量达到 29 亿颗,市场规模达到 1336 亿美 元。行业龙头集中效应显著,Intel 占据服务器 CPU 市场 80%以上的份额,国内厂商与 其技术差距较大,关注重点公司的技术突破进展。
内存、硬盘是服务器中其他的重要部件,内存是与 CPU 进行通信的桥梁,硬盘是 服务器数据的仓库。计算机中的所有程序都在内存中执行,服务器的硬盘需要满足速度 快和高可靠性,内存和硬盘都对服务器的性能有较大的影响。据 Yole 统计,存储器总体 市场空间将从 2021 年的 1670 亿美元增长至2027 年的 2630 亿美元,年复合增长率为 8%。市场呈现呈垄断竞争格局,DRAM 市场 CR3 超 90%,目前国内厂商与国外的技术, 规模等差距较大,自主产品亟待突破。
电源负责各个模块的供电和电路控制,由电源管理芯片实现。模拟芯片市场呈现国 外企业主导的竞争格局,据 IC Insights 数据,21 年中国模拟 IC 市场需求占据全球规模 的 43%,为最大需求市场。海外占据主导地位,根据 MPS 预测,MPS 在服务器主板 CPU/GPU 电源管理芯片领域可触及的市场规模达 20 亿美元,但国内厂商的自给率极低, 成长潜力可期。
服务器芯片经由封装形成模块,进入整机组装环节。根据 Yole 数据预计,2026 年 先进封装全球市场规模 475 亿美元,2020-2026ECAGR 约为 7.7%。目前,全球封测产业 正逐步向中国大陆转移,内资企业与外资厂商技术差距持续缩小,中国台湾、中国大陆 和美国占据主要市场份额,同时积极布局 Chiplet 等先进技术。
服务器其他零部件包括 PCB、连接器和接口等,成本占比低于 20%。 PCB 在高端服务器中的应用主要包括背板、高层数线卡、HDI 卡、GF 卡等,其特 点主要体现在高层数、高纵横比、高密度及高传输速率,2016 年以来,中国大陆 PCB 产 值规模在全球占比均超 50%。 服务器内部通过连接器实现印刷电路板和电子元件之间的连接,根据 Bishop& Associates 数据,2019 年全球连接器公司以欧美和日本企业主导,全球前十连接器厂商 市场份额合计为 60.8%,市场集中度较高。
服务器通过接口芯片以实现内外数据交换。目前全球接口芯片龙头厂商依旧为 TI、 美信及凌力尔特等,从 DDR4 世代开始,全球内存接口芯片厂商仅剩澜起科技、瑞萨(原 IDT)和 Rambus 三家厂商。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
精选报告来源:【未来智库】。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!
转载请注明:🔥GPT-4升级大浪潮:ChatGPT4的革新与AI应用爆炸性增长?🔍图像处理+超长文本,Open | ChatGPT资源导航