文章主题:芯片, ChatGPT, 英伟达
机器之心报道
编辑:泽南、蛋酱
AI 的 iPhone 时刻,要有一块好的芯片。
🌟曾经,AI因计算力匮乏遭遇了漫长的停滞,GPU的崛起引领了深度学习的革命。然而,在ChatGPT崭新时代,AI又面临着前所未有的算力挑战。这回,GPU制造商的创新之路还能否照亮AI的新里程呢?💡🚀
🚀【NVIDIA GTC大揭秘】🔥3月22日震撼开启!黄仁勋CEO亲曝ChatGPT专用AI芯片,引领科技新风潮!💡在今日盛大的Keynote上,这位GPU之父展示了其对未来人工智能领域的独特见解与创新成果。ChatGPT的超强性能背后,正是 NVIDIA 精心研发的专为智能对话打造的尖端技术。🚀这不仅标志着AI技术的新里程碑,也让全球科技爱好者屏息期待,ChatGPT将如何改写我们的日常生活和工作方式?🌟欲知更多细节,敬请关注后续深度解析!我们致力于提供最专业、最前沿的技术解读,让科技服务于每一个有梦想的你。💻👩💻👨💻#NVIDIA #ChatGPT #AI芯片 #科技创新
🌟🚀 计算力革命:从GPU到Transformer,AI时代的加速飞跃💡2012年,AlexNet的GPU轰动一时,每秒运算速度达到惊人的262 Petabytes,点燃了AI技术的狂飙。然而,十年后的今天,我们见证了一次堪称飞跃的计算能力升级——Transformer的诞生,它以323 Zettabytes的强大算力,是AlexNet的百万倍之多。这股力量催生出ChatGPT,一个全球瞩目的AI奇迹!🚀💻AI领域的iPhone时代正悄然临近,全新的计算平台引领着一场技术革命。速度与效能的跨越,标志着人工智能的黄金时代正在加速到来。🔍🌍欲了解更多关于这场计算力竞赛的深度解析,以及AI如何塑造未来的精彩篇章,敬请关注我们的最新文章,我们将深入探讨这些前沿话题。📚💻 #AI进步 #计算革命 #ChatGPT讨论
🚀科技巨头英伟达(NVIDIA)的AI热浪不仅使其股价飙升了77%的大奖,目前其市场价值已傲视全球,达到惊人的6400亿美元,这几乎相当于英特尔(Intel)市值的五倍之多!今日的发布会无疑揭示了他们创新不止、持续领先的信号。🚀
为 AIGC 设计专用算力
🌟🚀AI技术的进步正引领科技巨头对计算能力提出全新要求, NVIDIA 的创新之举无疑为这一转变提供了有力见证。他们最近推出了四款专为AI任务量身打造的推理平台,均采用一体化设计,展现了对未来智能计算的深度洞察与实践。🚀💡这些平台不仅提升了效能,更预示着AI驱动的世界中,统一架构将成为计算领域的主流趋势。💻📈通过优化算法和强大的硬件支持,AIGC正逐步打破传统边界,为科技行业带来前所未有的计算革命。🌍
🌟🚀NVIDIA的L4系列芯片以其AI驱动的视频处理能力震撼!它能提供CPU的120倍效能,同时保持惊人的99%能源效率,无论是流畅的视频流、高效的编码解码,还是创新的AI视频制作,都能轻松应对。🔥💻而对于图像生成的专业需求,NVIDIA的L40更是独步江湖,强大的算力确保了无与伦比的2D/3D图像处理效能,专为视觉艺术和设计工作打造。🎨💪这两款芯片无疑是你提升生产力,优化资源利用,追求卓越画质的不二之选!想要了解更多细节和技术规格吗?探索NVIDIA的世界,我们随时待命!🌐💻
针对算力需求巨大的 ChatGPT,英伟达发布了 NVIDIA H100 NVL,这是一种具有 94GB 内存和加速 Transformer Engine 的大语言模型(LLM)专用解决方案,配备了双 GPU NVLINK 的 PCIE H100 GPU。
「当前唯一可以实际处理 ChatGPT 的 GPU 是英伟达 HGX A100。与前者相比,现在一台搭载四对 H100 和双 NVLINK 的标准服务器速度能快 10 倍,可以将大语言模型的处理成本降低一个数量级,」黄仁勋说道。
最后还有 NVIDIA Grace Hopper for Recommendation Models,除了为推荐任务优化之外,它还可以为图形神经网络和矢量数据库提供动力。
让芯片突破物理极限
当前,半导体的生产工艺已经逼近物理学所能达到的极限。2nm 制程之后,突破点又是什么?英伟达决定从芯片制造的最原始阶段 —— 光刻入手。
从根本上说,这是一个物理极限下的成像问题。在先进制程下,芯片上的许多特征会小于打印过程中使用的光的波长,掩模的设计必须不断进行修改,这一步骤称为光学邻近校正。计算光刻模拟了光通过原件与光刻胶相互作用时的行为,这些行为是根据麦克斯韦方程描述的,这是芯片设计制造领域中需要算力最多的任务。
黄仁勋在 GTC 上宣布了一项名为 CuLitho 的新技术,用以加快半导体的设计和制造。该软件使用英伟达芯片来加速基于软件的芯片设计,并加速用于在芯片上打印该设计的光刻掩模的物理制造之间的步骤。
CuLitho 在 GPU 上运行,其性能比目前的光刻技术提高了 40 倍,可以加速目前每年消耗数百亿个 CPU 小时的大规模计算工作负载。「造 H100 需要 89 块掩膜版,在 CPU 上运算时一块就得算两个星期,但如果用 H100 在 CuLitho 上运行就只需要 8 个小时,」黄仁勋说道。
这意味着 500 个英伟达 DGX H100 系统就能够替代 4 万个 CPU 系统的工作,并运行计算光刻工艺的所有部分,帮助减少电力需求和对环境的潜在影响。
这一进展将使芯片的晶体管和电路比现在尺寸更小,同时加快了芯片的上市时间,并提高为推动制造过程而全天候运行的大规模数据中心的能源效率。
英伟达表示,它正在与 ASML、Synopsys 和台积电合作,将该技术推向市场。据介绍,台积电将在 6 月开始准备该技术的试产。
「芯片行业是世界上几乎所有其他行业的基础,」黄仁勋表示。「由于光刻技术已处于物理学的极限,通过 CuLitho 以及与我们的合作伙伴台积电、ASML 和 Synopsys 的合作,晶圆厂能够提高产量,减少碳足迹,并为 2nm 及以后的发展奠定基础。」
首个 GPU 加速的量子计算系统
在今天的活动中,英伟达还宣布了一个使用 Quantum Machines 构建的新系统,该系统为从事高性能和低延迟量子经典计算的研究人员提供了一种革命性的新架构。
作为全球首个 GPU 加速的量子计算系统,NVIDIA DGX Quantum 将全球最强大的加速计算平台(由 NVIDIA Grace Hopper 超级芯片和 CUDA Quantum 开源编程模型实现)与全球最先进的量子控制平台 OPX(由 Quantum Machines 提供)相结合。这种组合使研究人员能够建立空前强大的应用,将量子计算与最先进的经典计算相结合,实现校准、控制、量子纠错和混合算法。
DGX Quantum 的核心是一个由 PCIe 连接到 Quantum Machines OPX + 的 NVIDIA Grace Hopper 系统,实现了 GPU 和量子处理单元(QPU)之间的亚微秒级延迟。
英伟达公司 HPC 和量子主管 Tim Costa 表示:「量子加速的超级计算有可能重塑科学和工业,英伟达 DGX Quantum 将使研究人员能够突破量子 – 经典计算的界限。」
对此,英伟达将高性能的 Hopper 架构 GPU 与该公司的新 Grace CPU 整合为「Grace Hopper」,为巨型 AI 和 HPC 应用提供了超强的动力。它为运行 TB 级数据的应用提供了高达 10 倍的性能,为量子 – 经典研究人员解决世界上最复杂的问题提供了更多动力。
DGX Quantum 还为开发者配备了英伟达 CUDA Quantum,这是一个强大的统一软件栈,现在已经开放了源代码了。CUDA Quantum 是一个混合型量子 – 经典计算平台,能够在一个系统中整合和编程 QPU、GPU 和 CPU。
每月 3.7 万美元,网页上训练自己的 ChatGPT
微软斥资数亿美元购买了数万块 A100 构建了 GPT 专用超算,你现在可能会想要租用 OpenAI 和微软训练 ChatGPT 和必应搜索相同的 GPU 来训练自己的大模型。
英伟达提出的 DGX Cloud 提供了专用的 NVIDIA DGX AI 超级计算集群,搭配 NVIDIA AI 软件,该服务使每个企业都可以使用简单的网络浏览器访问 AI 超算,消除了获取、部署和管理本地基础设施的复杂性。
据介绍,每个 DGX Cloud 实例都具有八个 H100 或 A100 80GB Tensor Core GPU,每个节点共有 640GB GPU 内存。使用 NVIDIA Networking 构建的高性能、低延迟结构确保工作负载可以跨互连系统集群扩展,允许多个实例充当一个巨大的 GPU,以满足高级 AI 训练的性能要求。
现在,企业可以按月租用 DGX Cloud 集群,快速轻松地扩展大型多节点训练工作负载的开发,而无需等待通常需求量很大的加速计算资源。
而月租的价格,据黄仁勋介绍,每个实例每月 36999 美元起。
「我们正处于人工智能的 iPhone 时刻,」黄仁勋表示:「初创公司竞相打造出了颠覆性产品和商业模式,而现有企业也在寻求回应。DGX Cloud 让客户能够即时访问全球规模的云中的 NVIDIA AI 超级计算。」
为了帮助企业迎接生成式 AI 的浪潮,英伟达同时宣布了一系列云服务,让企业能够构建、改进定制的大型语言模型和生成式 AI 模型。
现在,人们可以使用 NVIDIA NeMo 语言服务和 NVIDIA Picasso 图像、视频和 3D 服务来构建专有的、特定领域的生成式 AI 应用程序,用于智能对话和客户支持、专业内容创建、数字模拟等。另外,英伟达还宣布了 NVIDIA BioNeMo 生物学云服务的新模型。
「生成式 AI 是一种新型计算机,可以用人类的自然语言进行编程。这种能力影响深远 —— 每个人都可以命令计算机来解决问题,而此前不久,这还是程序员们的专利,」黄仁勋说道。
从今天的发布内容看来,英伟达不仅正在针对科技公司的 AI 负载不断改进硬件设计,也在提出新的商业模式。在一些人看来,英伟达是想做「AI 领域的台积电」:像晶圆厂一样提供先进生产力代工服务,帮助其他公司在其之上训练各自特定场景的 AI 算法。
用英伟达的超算训练,直接省去中间商赚差价,会是未来 AI 发展的方向吗?
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!