客户端
游戏
无障碍

1

评论

4

1

手机看

微信扫一扫,随时随地看

从ARM与高通看AI端侧的大时代机遇与节奏

2月5日盘后,AI端侧芯片IP全球霸主ARM以及移动芯片绝对霸主高通发布新季度的业绩,其中透露出的AI端侧机会如何?
核心结论:在 DeepSeek 等模型的推理成本显著下降、硬件算力与能效快速提升的背景下,端侧 AI 的规模化应用正在提速,端侧放量即将迎来加速期!
近期大模型(如 ChatGPT、DeepSeek 等)在云端大规模训练后,可以通过“模型蒸馏”、“剪枝压缩”等手段,在保持可用精度前提下显著缩小模型体积,使得移动端、PC、可穿戴设备等资源受限的硬件上也能进行推理。
行业内普遍认为,未来会形成“云端训练 + 端侧推理”或“云 + 端协同推理”的混合模式,进一步促进更多AI应用落地。每个终端都要具备一定 AI 推理能力时,对底层芯片架构的需求量会非常可观,从而为 Arm 带来巨大的 TAM(总可用市场)
从需求来看,AI 需求快速增长,将在云端、终端以及各种边缘设备普及,对计算需求与效率提出很高要求,Arm 的低功耗高效计算架构具备明显优势。不仅在手机和 PC 端的小型语言模型上加速运算,同时在大型 AI 训练与推理中(如高端数据中心、超级计算)也通过与 GPU 加速卡结合,大幅度扩展市场空间。
短期内云端和高端终端是重点,1~2 年内边缘侧和大众化终端的 AI 推理需求将爆发,进一步推高对高算力、高效率 Arm 架构的需求。

1. ARM对于 AI 端侧(On-Device AI) 的展望

本季度 Arm 创下了多项纪录(总收入与授权费收入均创新高)。AI 推动下对计算力的需求使得包括智能手机、数据中心、物联网、汽车在内的各个细分市场都朝向更高能效、更高性能的方向发展,为 Arm 开拓新的增长空间。去库存周期在 IoT 等部分细分市场临近尾声,有利于后续回暖。虽然单个设备上的算力规模不及云端,但端侧 AI 的设备数量庞大(智能手机、IoT 设备、车载系统等),且逐年增长。


第一,AI 端侧的背景与驱动因素主要用哪些?

隐私与实时性:本地推理可以在终端设备(如智能手机、智能摄像头、车载系统等)上完成数据处理,而无需将大量数据上传云端。这样能够更好地保护用户隐私并降低网络带宽与延迟,满足对实时性、高可用场景的需求。
算力与能效提升:随着先进制程的演进以及 CPU/NPU/GPU 架构的更新,终端侧芯片的算力显著增强,功耗管理也更加优化。这使得更多小型或中型 AI 模型能够在本地运行,形成可行的端侧 AI 解决方案。
成本与适用场景:长期来看,云端训练与推理的成本不断攀升,大规模推理在云端也非最优选。对于很多场景——例如个人语音助手、手势识别、车内语音控制、家庭安防或智能家电——在端侧进行本地推理,既能节省云端资源,也提升用户体验。

第二,Arm 对端侧 AI 的技术布局

v9 架构的性能与能效:Armv9 架构带来更强的计算性能与更优的能效,为端侧 AI 提供了基础算力支撑。管理层在财报会议中强调,手机与嵌入式设备的高端处理器正逐步从 v8 向 v9 迁移,带来更高的单片授权费率(Royalty)与更好的终端 AI 能力。
CSS(Compute Subsystem)一体化:在智能手机、汽车、IoT 边缘等场景下,Compute Subsystem(CPU+GPU+NPU+互联总线的组合)可以一站式提供高效的本地 AI 推理能力。不同于云端大算力的单纯 CPU+GPU 模式,端侧需要更灵活、低功耗且紧耦合的异构架构。CSS 可以帮助客户快速定制 SoC,满足各类 AI 功能需求。
Kleidi AI 软件库:在端侧部署 AI 模型的过程往往需要针对硬件架构的编译优化、模型量化等软件层支持。Arm 推出的 Kleidi AI 库,旨在为开发者提供简化而高效的端侧 AI 开发工具链,加快各类模型在 v9/CSS 平台上的推理落地。

第三,端侧 AI 的主要应用场景

智能手机 / 平板:已经出现能在本地运行小型语言模型、实时语音转写、图像识别等功能的旗舰机型。未来 1~2 年内,手机端的大模型“轻量化”将进一步提升端侧 AI 体验,如增强型语音助手、多模态识别、AR/VR 等功能。
车载系统:数字座舱、驾驶员监控、语音交互等功能均可在车内终端进行推理处理,避免网络延迟并在断网时持续工作。高级驾驶辅助系统(ADAS)的感知部分部分也可下沉至端侧,这需要高算力 SoC 与车规级安全保证。Arm 在能效、安全架构上的优势正好契合汽车电子诉求。
物联网与边缘设备:工业场景中的智能监测终端、安防摄像头、智能家电以及可穿戴设备,也在不断集成 AI 功能,用于本地化的数据分析与决策。
随着 MCU/MPU 算力升级,部署轻量化模型成为可能,为传统传感器与控制系统带来新的智能化水平。

第四,未来增量与市场机遇

海量终端与多样化需求:虽然单个设备上的算力规模不及云端,但端侧 AI 的设备数量庞大(智能手机、IoT 设备、车载系统等),且逐年增长。每个终端都要具备一定 AI 推理能力时,对底层芯片架构的需求量会非常可观,从而为 Arm 带来巨大的 TAM(总可用市场)。
高附加值产品端侧:AI 对 CPU/GPU/NPU 的性能、功耗和平衡优化提出严格要求,客户更倾向购买先进节点与高端架构 IP,也让 Arm 获得更高的授权费率。CSS 方案的普及带来单片更高收益,并延长产品迭代周期中的客户黏性。
与云端 AI 形成互补:云端与端侧将形成“协同推理”模式——云端处理大型模型的训练和复杂推理,端侧负责实时性、本地隐私处理等场景。这将促使 Arm 同时在云(数据中心 CPU)和终端(边缘/移动/汽车 CPU)两端收益。

总结来看,公司对于端侧AI的机会展望非常好,虽然因为预期太高,盘后股价反跌,但是管中窥豹,AI端侧的机会在加速:

  • 端侧 AI 的趋势:未来将在手机、车载和各种 IoT 场景大范围普及,本地推理为实时性、安全性和节能性带来明显价值。

  • Arm 的机遇:其能效、生态、整合度(CSS + v9 + Kleidi)的优势使之有望在端侧 AI 架构上保持领先,且端侧市场规模十分可观,能持续支撑 Royalty 与 Licensing 双增长。

  • 时间节奏:近期(1~2 年):旗舰手机、车载智能座舱、部分工业与安防场景优先落地;中长期(2~5 年):更多边缘与 IoT 设备升级,海量终端带来显著的增量需求,端侧 AI 将成为普遍能力。

随着 AI 模型在端侧的快速迭代与算力需求的提升,Arm 在能效与生态上的优势将愈发突出。企业、开发者、消费者多方需求共同作用下,AI 端侧的整体市场潜力巨大,为 Arm 和整个产业链提供了持续增长的动力。


2. 高通如何看edge AI的机会?
图片

在最近几个季度和行业活动中,高通管理层多次强调了“端侧(On-Device)AI”即将在智能手机、汽车、物联网及个人计算等领域迎来重要的增长与变革。结合高通在财报会议中的观点和行业整体趋势,以下是对 AI 端侧未来发展的整体展望:

1. 端侧AI成为大势所趋

(1)对实时性与隐私保护的需求

实时性:许多计算和应用场景需要即时响应(如语音助手、图像识别、手势交互、车载驾驶辅助等),端侧推理可有效减少云端往返的延迟。
隐私与安全:在设备本地执行推理,无需将用户数据上传至云端,能更好地保护用户隐私与数据安全,对企业和个人都至关重要。

(2)云端资源与成本的优化

云计算成本:随着生成式 AI 模型的规模越来越大,云端训练和推理的运营成本也不断上涨。若在端侧执行部分推理,可缓解云端负担,实现总体成本优化。
网络带宽与可用性:在网络不稳定或离线的环境下,端侧AI可维持连续稳定运行,这在工业IoT、车辆终端以及偏远地区更为关键。

(3)AI模型“小型化”趋势

近期大模型(如 ChatGPT、DeepSeek 等)在云端大规模训练后,可以通过“模型蒸馏”、“剪枝压缩”等手段,在保持可用精度前提下显著缩小模型体积,使得移动端、PC、可穿戴设备等资源受限的硬件上也能进行推理。
行业内普遍认为,未来会形成“云端训练 + 端侧推理”或“云 + 端协同推理”的混合模式,进一步促进更多AI应用落地。
    图片


    2. 高通对端侧AI的技术与产品优势

    (1)专用的AI硬件加速单元(NPU/Hexagon DSP 等)

    高通在最新的骁龙移动平台(如 Snapdragon 8 系列、Snapdragon X 系列等)中集成了高性能、低功耗的NPU(Neural Processing Unit)。这类专用AI加速器可大幅提升推理速度与能效比,支持更复杂的模型在移动端实时运行。

    (2)丰富的生态和软件堆栈

    高通为开发者与OEM提供了 AI 开发工具链,如 Qualcomm AI Stack、Inference Suite 等,方便在终端侧针对硬件进行编译与优化。在 PC 端与微软 (Microsoft) 深度合作,Windows on Snapdragon 已支持几十款AI应用并可在未来支持 Copilot+ 等生成式AI。

    (3)多场景覆盖:手机、PC、汽车、物联网

    • 智能手机:高端机型不断扩展 AI 应用场景,从影像增强、智能拍摄到自然语言处理、实时翻译、语音助手等。

    • PC:越来越多的笔记本/平板等移动计算平台需要本地AI推理(如 Office Copilot、内容生成、视频会议降噪等)。

    • 汽车:车载座舱、驾驶辅助(ADAS)需要实时计算和边缘推理,减少对云的依赖并提升安全性。

    • IoT:零售、医疗、工业制造、机器人等对端侧AI需求增长,帮助企业实现本地分析和实时决策。


    3. 端侧AI未来的主要机遇与趋势

    大模型下沉端侧:随着模型压缩及硬件性能提升,未来会涌现更多“小而精”的生成式AI、本地推理型应用。例如智能拍照、大语言模型小型化、实时语音翻译、手势识别等,将运行在手机、平板、PC、AR/VR 头显甚至智能眼镜上。

    AI赋能可穿戴及 XR/元宇宙设备
    智能眼镜、VR/AR 头显对语音交互、手势/眼动跟踪、虚拟环境识别等需求显著上升,需要极其低时延且不依赖云端处理。端侧AI将大幅提升用户体验,为这些新形态设备普及创造条件。

    车载系统“智能座舱+ADAS”的融合
    新一代软件定义汽车中,座舱智能化(语音控制、多模态交互、车内监测)与 ADAS(感知融合、路径规划)都需要大量实时AI推理能力。高通的 Snapdragon Ride 等平台在算力与能效方面具备竞争优势。

    工业4.0 与智慧城市
    企业部署海量传感器与摄像头,需要实时推断现场数据(如缺陷检测、人流监控、设备维护等)。边缘服务器、网关甚至终端节点都可能集成AI能力,帮助降低云端压力、减少网络带宽开销、提升实时性与数据安全。

    与云协同的混合AI
    端侧与云侧在 AI 推理上各有优势,未来会形成更紧密的协同:如简化模型在端侧进行实时推理,复杂或批量分析在云端完成。“云 + 边 + 端”协同框架将成为行业标准,提高整体效率与灵活性。

    综合高通在财报会议及行业活动中的信息可以看出,端侧AI 已从早期的实验阶段进入加速落地和规模化发展的时期。硬件性能、模型压缩技术、隐私与实时性需求等多重因素共同推动,智能手机、PC、汽车和物联网终端逐渐成为生成式AI和推理应用的重要执行载体。

    对高通而言:

    • 其骁龙移动平台、Snapdragon Ride汽车平台、AI on-prem 解决方案以及专用AI加速架构具备差异化优势,能够在边缘和终端场景为企业和消费者提供高效的AI算力支持。
    • 随着更多应用场景被验证、软件生态持续完善,端侧AI有望在未来几年进入主流,加速终端形态和用户体验的全面升级。

    对整个行业而言:

    • “云训练 + 端推理”模式将成为主流,生成式AI、自然语言处理、AR/VR 等应用向终端或边缘场景的迁移速度将继续提升。

    • 端侧AI给终端厂商、应用开发商和新兴硬件形态(如可穿戴、MR/AR 眼镜、工业终端等)带来更大创新空间。
    • 隐私保护、低时延交互、个性化功能将成为驱动消费者换机或选购新终端的重要因素,也为半导体与芯片设计公司带来新的增长引擎。


    AI 端侧化是大势所趋,高通在这一赛道的投入和布局,使其能够充分受益于这一变革浪潮。未来随着 AI 技术持续进化,芯片算力与能效比的进一步提升,终端形态与用户体验都会发生深远变革。

    Arm 与高通财报均表现出对 AI 端侧 的极大信心:海量终端对于高能效与本地推理的需求在加速,Arm 以 IP 架构 + 生态(如 Armv9、CSS) 赋能全球芯片厂商,高通则以 商用 SoC 平台(骁龙等) 与 专用 AI 加速(NPU/DSP) 链接终端整机厂商。
    端侧 AI 正从早期探索走向规模化落地:隐私、安全、低时延、节省带宽等痛点驱动企业及开发者拥抱本地推理;尤其在手机、PC、汽车、IoT 等场景,随着大模型蒸馏与硬件性能提升,本地 AI 越来越成为“标配”功能。
    未来 1~2 年:头部旗舰机型、车载系统、工业摄像机/网关等在端侧 AI 需求上迎来加速,企业级与消费级场景并进;
    2~5 年后:更多中端与长尾物联网设备也将具备基本 AI 推理功能,形成“云 + 端”协同的新生态。对 Arm、高通及相关芯片/算法/平台厂商而言,端侧 AI 带来的 TAM 扩容以及单片价值量提升,将是持续的增长动力。

    全文完。

    -END-
    免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
    举报
    评论 0文明上网理性发言,请遵守《新闻评论服务协议》
    请先登录后发表评论~
    查看全部0条评论
    首页
    刷新
    反馈
    顶部