客户端
游戏
无障碍

10

评论

17

16

手机看

微信扫一扫,随时随地看

黄仁勋需要一场鼓舞市场的胜利演说

AI划重点 · 全文约3003字,阅读需9分钟

1.黄仁勋将在北京时间3月19日凌晨1点的英伟达GTC2025上发表主题演讲,旨在鼓舞市场信心。

2.由于市场担忧,黄仁勋需要阐述AI重心转向推理和应用,以及数据中心需求仍将高速增长的理由。

3.他可能会推出下一代GPU技术,如Blackwell架构的升级版和下一代Rubin架构的AI芯片。

4.然而,黄仁勋也需要面对越来越强大和数量众多的开源小模型,以及市场对其高端GPU的替代需求。

5.除此之外,英伟达还需在智能体AI和物理AI领域取得突破,以维持业绩增长。

以上内容由腾讯混元大模型生成,仅供参考


黄仁勋将在北京时间周三(3月19日)凌晨1点,在英伟达GTC2025的舞台上发表主题演讲。

英伟达的处境,与前两年截然不同。2023年与2024年,英伟达的市值涨势如破竹,接连跨越万亿和两万亿里程碑。而如今,已经从高点的3.6万亿美元跌至2.9万亿美元,震荡不前。

图片

市场更需要黄仁勋亲自来一场鼓舞士气的胜利演说,他要让市场相信,AI重心转向推理和应用,数据中心的需求仍将高速增长;他要推出继续引领的下一代GPU技术。

但黄仁勋也必须说清楚,越来越强大和数量众多的开源小模型只需要一块GPU就能跑起来,而且越来越多的平替产品在出现,市场为什么还需要那么多GPU。有些问题他不便公开谈论,但是更加不确定的地缘政治因素也是明摆着。

下一代GPU

无论是美国巨头还是中国大甚至欧盟也苏醒了,都在追加对数据中心的投资,一方面用于新的前沿模型的训练,一方面用于AI推理的规模落地。

换言之,AI算力的市场总量仍在增长。这至少不是一个坏消息。EpochAI认为,到2030年前,基于算力增长的前沿模型训练的扩展定律不会完全终结。但它给出了四个限制条件,产能、能效、网络与数据,都是基于历史趋势的。

前三个与英伟达息息相关。去年,Blackwell架构芯片就因为设计问题良率不佳,产能爬坡缓慢,让英伟达的投资者吃尽了苦头。

黄仁勋很可能会在GTC大会上,展望新的加速计算的发展趋势,并拿出英伟达下一代产品,包括Blackwell架构的升级版,下一代Rubin架构的AI芯片,或许还会稍微暗示下Rubin之后的时间线。英伟达还有一款代号Vera的服务器CPU,将要替代已经用了4年的Grace。

他要用这些产品让市场相信,黄氏定律继续生效,英伟达仍然主导算力的扩展趋势。

在英伟达最近一次财报会议上,黄仁勋已经证实,将在今年下半年发售基于BlackwellUltra的GB300系列。券商大行的分析师,已经从供应链处打探到,它搭载的HBM内存带宽更大,达到288GB,整体热设计功耗(TDP)也将提升至1.4千瓦。去年至今初版Blackwell架构的设计问题,没有影响到Blackwell Ultra的进展。

更高的内存带宽对推理更为友好,算力指标鸡肋的H20仍受到中国企业追捧,很大一个原因,就是它搭载了中国目前尚无法量产的HBM3。同时,伴随推理需求占比的提升,GB300将继续往低精度方向扩展,FP4精度下性能比B200提升50%。

几乎可以确定,全新的Rubin架构将得以隆重介绍。它是推动2026年英伟达业绩增长的关键产品。英伟达的客户及投资者,都期盼着听到关于它的性能参数、配置方案及量产时间表。它可能采用台积电的N3工艺。与其配置在一起的Vera,即下一代ARM架构的CPU,很可能也是N3工艺。Rubin架构的量产时间可能提前至最快2025年年末,但大规模发货最早也要等到2026年二季度。

黄仁勋在最近一次财报会议上还提到了后Rubin时代。它可能是新的代号,也可能是Rubin Ultra。也许这次会透露一二。

黄仁勋还可能在GTC上印证几则传言。有关英伟达NVL288机架的消息已经流传已久。去年10月,市场就开始讨论英伟达将向单个机柜塞进288张GPU。从机柜间互联的超大规模集群,转向机柜内强互联的超节点(intra-rack),能提升性能及空间效率,被视为英伟达针对大模型从训练向推理转型的调整。但单机架GPU密度的提升,进一步提高了对电源与散热的要求。

机构还关注英伟达的CPO(共封装光学)路线图。它有助于提高带宽、降低延迟并减少功耗。但是,摩根大通认为它对英伟达财务数据的影响,至少要等到2027年之后。

讲好智能体与机器人故事

自ChatGPT发布以来,来自数据中心AI芯片的收入,是英伟达一次次超越市场预期的主要贡献者。黄仁勋需要证明,英伟达数据中心业务还将继续爆发,其他业务部门也正处于跨越鸿沟的阶段。否则,市场对其业绩的惊喜,即将耗尽。

图片

在CES2025上,黄仁勋已经搬出了“救兵”:继生成式AI之后,智能体AI(AgenticAI)与物理AI(Physical AI)正在到来。

按OpenAI的框架,我们处于从AGI五阶段的L2推理者向L3智能体过渡的阶段。在数字环境中持续自主行动的多模态的AI智能体将越来越多,最终,成为帮助完成工作的组织者。AI自身是可以通过“智能体”的方式无限增殖的,智能体之间的交互将创造近乎无限的算力需求。

几个月前,英伟达发布了智能体AI相应的开发套装。这次,黄仁勋需要兑现更多。

这还只是面向数字世界的算力需求。能在工业和住宅等现实世界环境中执行各种物理任务的通用机器人,将真正通往AGI。

几个月前,黄仁勋高呼人形机器人ChatGPT时刻,并发布了自己的Cosmos世界基础模型(WFM)系列。此间,市场一直传言它与台湾机器人相关供应链往来密切。今年,英伟达还与卡内基梅隆大学(CMU)合作,拿宇树科技的G1人形机器人模仿C罗、科比与詹姆斯的经典动作。该公司旗下GEAR实验室联合创始人兼GR00T项目负责人Jim Fan戏称,2030年人形机器人奥运会肯定很精彩。

机器人仍然需要强大的端侧算力。谷歌最近发布的Gemini Robotics-ER模型,就是因为本地算力不足,蒸馏成Gemini Robotics,但是这个视觉语言动作模型(VLA)的主干,仍然只能部署于云端,本地仅部署了动作解码器。去年,英伟达公开了Jetson Thor,这是一款专为机器人打造的基于Blackwell架构的端侧芯片,原定今年上半年上市。自动驾驶也是如此,汽车是装了四个轮子的机器人。

还有端侧算力。越来越多开源模型的性能,接近前沿闭源模型水平。最新发布的谷歌Gemma3是“世界上最好的单芯片模型,目前非推理开源模型第一。类似谷歌这样能在多种硬件平台高效运行的大模型将越来越多,进一步降低开发者对英伟达高端GPU的依赖。

随着Meta的Llama 4、阿里QwQ-Max、DeepSeek的R2开源,端侧算力生态位的争夺也将日趋激烈。黄仁勋2个月前发布的个人桌面超级计算机Project Digits,已经被苹果搭载M3 Ultra的Mac Studio打败了。前者只能本地运行2000亿参数规模的大模型,后者已经可以驱动6000亿参数大模型了,几乎就是满血版R1的体量。

英伟达平替版涌现

目前,英伟达的AI芯片仍是全球云巨头争抢的对象,尤其是用于训练,除了谷歌自用的TPU外,目前没有与之匹敌的规模部署的替代。但未来可不一定。

Meta正在测试第一颗自主研发的AI训练芯片,也属于MTIA系列。此前,Meta已经推出了该系列中的AI推理芯片。据路透的消息,这款训练芯片已经开始小规模部署测试,预计2026年前投入使用。这款芯片很可能是RISC-V架构芯片,比英伟达GPU更节能,还配备了HBM3或HBM3e内存。博通与台积电是Meta的合作伙伴。

博通已经成为平替版的英伟达。该公司在定制AI芯片领域已经拥有三家大客户,让其有底气喊出了至多900亿美元的需求市场总量。在最近的财报电话会议上,博通透露可能再增加四家大客户,其中两家接近为其带来收入。市场推测其中一家就是计划研发AI服务器芯片的苹果。

博通正在扩展产能,尤其是先进制程的2nm与3.5D封装技术,以及适配50万卡级别集群的技术。目前,博通定制芯片仍然多数服务于训练,但该公司称,随着推理占比的提升,ASIC和FPGA等可以在特定应用场景中找到机会,自己的市场占有率将进一步提升。

英伟达周围还有一众初创芯片企业追兵。DeepSeek激活了市场对它们“最快”推理芯片的需求。它们也终于可以因此回点血,活下去继续竞争了。每次DeepSeek与Qwen开源最新模型,Groq总是最积极部署,主打就是一个快。Cerebras也声称在R1发布后,公司迎来了“有史以来最大的服务需求高峰之一”。该公司正在冲刺上市,在其招股书中,它宣告自己打破了摩尔定律。

图片

(来源:Cerebras招股书)

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部