Document Text
2,559 characters
【CNMO科技消息】近日,谷歌在Cloud Next 2026大会上发布第八代TPU,首次将训练与推理任务拆分为两款独立芯片——TPU 8t专攻大规模训练,TPU 8i专司高效推理。这一"训推分离"的硬件设计,标志着谷歌在算力专属化道路上迈出了最彻底的一步,引发了业界对AI算力未来发展方向的深度思考。<br>
谷歌TPU 8i<br>
过去十年,英伟达GPU凭借通用性与CUDA生态几乎垄断AI算力市场,成为全球AI发展的核心驱动力。然而,谷歌却始终坚持从零开始自研TPU,从2015年内部部署到如今全面对外服务,走了一条截然不同的技术路线,展现了其在AI基础设施领域的长期战略眼光。<br>
如今,推理需求即将占据AI总算力的70%以上,行业正站在算力范式的拐点。从聊天机器人到AI代理再到数字员工,每一次应用跃迁都意味着推理负载的指数级增长。与此同时,微软、亚马逊、Meta纷纷入局自研芯片,AI算力市场正从单极走向多极。<br>
那么,谷歌为何选择走算力专属化这条路?<br>
从通用到专用<br>
谷歌将TPU拆分为训练与推理两款独立芯片,根本驱动力来自AI计算需求的结构性转变。巴克莱预测,到2026年推理计算需求将占AI总算力的70%以上,是训练需求的4.5倍,市场规模达1450亿美元,正式取代训练芯片成为行业核心引擎。<br>
谷歌TPU 8i<br>
德勤同期报告指出,2026年全球AI算力芯片市场突破2800亿美元,推理芯片需求首次超越训练芯片。巴克莱预计2028年英伟达推理芯片份额将从目前的80%降至约50%,主要原因是云服务商推出定制ASIC芯片以提升推理市场占有率。<br>
进入AI代理时代后,推理需求进一步激增。巴克莱将AI发展分为三个阶段:当前“聊天机器人时代”,2025-2026年“AI代理时代”,以及2027年后“数字员工时代”。代理时代中,AI智能体使单交互Token消耗暴增20-30倍,多步骤推理需求呈指数级增长。<br>
在此背景下,通用GPU的局限日益突出。其数千个并行计算单元和复杂内存调度在训练时是优势,在推理时却造成不可预测的延迟抖动。谷歌Amin Vahdat明确指出:“随着AI智能体的兴起,我们认定针对训练和推理分别提供专门优化的芯片,将使整个技术生态受益。”<br>
挣脱“英伟达枷锁”<br>
算力专属化的另一重动力,来自科技巨头对英伟达供应链依赖的深度焦虑。目前英伟达控制着全球约85%至92%的AI加速器市场,2026财年数据中心营收达2159亿美元,毛利率高达73.6%,其市场地位近乎垄断。<br>
英伟达<br>
英伟达的护城河不仅在于硬件,更在于CUDA软件生态系统。经过二十余年积累,CUDA已拥有超过400万注册开发者。面对高昂采购成本和供应短缺风险,全球最大的几家云服务商纷纷投身自研芯片。<br>
这一趋势已从谷歌一家扩展为全行业共识。2026年1月,微软发布第二代自研AI芯片Maia 200,采用3纳米制程。Meta在2026年4月宣布与博通合作研发MTIA定制加速器。亚马逊CEO安迪·贾西透露Trainium需求进入爆发期,Trainium 3计划于2026年初出货。<br>
从资本支出来看,TrendForce预估2026年全球八大CSP合计资本支出超7100亿美元,年增约61%。其中Alphabet资本支出有望超1783亿美元,年增95%。谷歌是各CSP中唯一ASIC出货比例高于GPU的业者,预计2026年TPU在其AI服务器中占比将逼近78%。<br>
算力专属化带来了什么<br>
谷歌算力专属化战略本质上是对AI时代算力权力格局的一次主动重构——从依赖第三方通用算力,转向深度定制、软硬协同的专用算力体系。这一转型的价值体现在三个层面。<br>
首先是性能效率的直接提升。TPU 8t在同等价格下效能较上一代提升2.8倍,每瓦性能提升124%;TPU 8i效能提升80%,每瓦性能提升117%。两款芯片均整合基于安谋架构的Axion CPU,消除数据预处理延迟瓶颈,确保TPU持续满载运转。<br>
其次是成本效益的显著优势。谷歌借助TPU大幅压缩大模型部署成本,将Gemini等产品的使用成本压低至极具竞争力的水平。投资银行D.A. Davidson估算,谷歌TPU业务加上DeepMind的总价值约为9000亿美元,接近谷歌总市值约4万亿美元的四分之一。<br>
第三是软件生态的自主构建。CUDA生态覆盖全球超过95%的AI开发者,被视为最难撼动的壁垒。谷歌启动“TorchTPU”计划,与Meta合作让TPU顺畅运行PyTorch。第八代TPU现已支持JAX、PyTorch、Keras等主流框架,开发者可直接迁移模型而无需修改代码。<br>
从宏观视角看,算力专属化正在重塑云服务市场的基础逻辑。TrendForce指出,业者正日益扩大导入ASIC基础设施,以确保AI应用服务的适用性及数据中心建置的成本效益。能够自主掌控从芯片到框架、从训练到推理全流程的厂商,将在AI竞赛中获得长期核心优势。<br>
总结<br>
英伟达凭借CUDA生态和通用GPU确立了一个时代的算力话语权,但AI工作负载的分化正在打破这一格局。推理不再是训练的“配角”,而是独立成为算力需求的主力,这对芯片架构提出了崭新的要求。科技巨头已无法承受唯一供应商的锁定风险,自研芯片成为降低成本和分散风险的唯一出路。<br>
在这场算力重构的大潮中,谷歌凭借十年TPU积累和第八代芯片的战略转向,正从一个算力使用者转变为算力定义者。CNMO认为,算力专属化在未来将不仅仅是谷歌的选择,更将成为AI时代大型科技企业的标准配置。<br>
“特别声明:以上作品内容(包括在内的视频、图片或音频)为凤凰网旗下自媒体平台“大风号”用户上传并发布,本平台仅提供信息存储空间服务。<br>
Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”
Metadata
| Publisher | 凤凰网科技 |
| Site | ifeng |
| Date | N/A |
| CMS Category | 媒体报道 |
| Keywords | 算力 谷歌 芯片 市场 专属 时代 成本 全球 科技 代理 核心 数据中心 生态 基础设施 行业 聊天 巨头 风险 竞争力 优势 深度 模型 性能 业者 技术 日益 机器人 体系 调度 报告 步骤 日益突出 高达 效能 瓶颈 流程 层面 单元 效益 德勤 指数 局限 毛利率 价格 数据 厂商 内存 服务商 部署 加速器 领域 员工 战略眼光 水平 开发者 协同 体使 战略 视角 引擎 专用 价值 至极 拐点 安迪 格局 标志 财年 无法 硬件 路线 截然不同 代码 数字 巴克莱 转型 企业 单极 宏观 驱动力 走算力 歌算力 本质 智能 重构 使用者 大潮 重塑 投资银行 适用性 权力 应用服务 投身 效率 高昂 比例 架构 框架 安谋 逻辑 |
Verification