谷歌推出新AI芯片:分离训练与推理,挑战英伟达主导地位

在人工智能算力竞争不断升级的背景下,Google 正在加速布局自研芯片生态。最新发布的第八代TPU(Tensor Processing Unit)显示出一个关键变化——将AI模型的“训练”和“推理”任务分离,由不同芯片分别承担。

这一调整,标志着AI硬件架构进入更专业化阶段,也被视为谷歌对 Nvidia 的进一步竞争举措。

AI芯片架构进入“分工时代”

过去,谷歌的TPU芯片同时承担训练和推理任务。但在新一代产品中,公司决定将两种计算需求拆分,推出专门用于训练模型和运行模型的两类处理器。

谷歌表示,这一改变主要是为了适应AI应用的新趋势。随着AI Agent(智能体)数量增加,系统对响应速度和计算效率的要求显著提升,因此需要更具针对性的硬件设计。

新一代TPU预计将在今年晚些时候正式提供使用。

科技巨头加速自研芯片布局

谷歌并非唯一采取这一策略的公司。当前,多家科技巨头正在推动AI专用芯片的发展,以提升性能并降低对通用GPU的依赖。

Amazon 早在2018年推出Inferentia芯片用于推理任务,并在2020年推出Trainium用于训练模型;Microsoft 已发布第二代AI芯片;Meta 也在与 Broadcom 合作开发AI处理器。

更早之前,Apple 已在其iPhone芯片中集成神经网络引擎,用于本地AI计算。

整体来看,自研芯片正在成为大型科技公司优化AI性能和控制成本的重要手段。

性能与架构升级

谷歌此次发布的训练芯片,在相同价格下性能比上一代提升约2.8倍;推理芯片性能提升约80%。

在硬件设计上,新芯片采用了更大规模的静态随机存取存储器(SRAM)。每颗芯片配备384MB SRAM,是上一代产品的三倍。这一设计有助于提升数据吞吐能力和降低延迟。

谷歌表示,这种架构能够支持大规模AI模型同时运行,并满足数百万AI代理并发处理的需求。

值得注意的是,Nvidia 也在推进类似方向,其新一代硬件同样强调SRAM的应用,以提升实时响应能力。

商业应用逐步扩大

随着技术成熟,谷歌AI芯片的应用范围正在扩大。

公司表示,Citadel Securities 已使用TPU开发量化研究软件;美国能源部17个国家实验室也在使用基于TPU的AI科研系统。此外,AI公司 Anthropic 已承诺大规模采用谷歌TPU资源。

市场分析认为,TPU业务与 Google DeepMind 的结合,整体价值可能达到数千亿美元规模。

尽管如此,目前没有任何公司能够完全取代英伟达在AI芯片市场的领先地位。

AI算力竞争持续升级

整体来看,AI芯片市场正在从单一硬件竞争,转向生态系统竞争。

一方面,科技巨头通过自研芯片提升效率与差异化;另一方面,云服务平台将这些芯片作为基础设施,提供给企业客户使用。

随着AI应用持续扩展,从模型训练到实时推理的需求不断增长,算力架构的演进也将持续成为行业核心竞争点。

更多客户案例

Leave a Reply

Categories

RELATED READING

【公司介绍】

Ai Financial 基金投资: You fulfill your dreams, we cover your bills

Ai Financial是加拿大领先的Fin-Tech高科技基金投资服务提供商。我们利用高科技坚持价值投资,希望运用这套投资体系推动加拿大养老体系的改革,让更多人通过金融投资过上更好的生活。

Ai Financial 具有金融监管 (Financial Compliance) 和反洗黑钱 (AML)背景,通过与银行,基金和保险公司合作,我们选择适合客户的基金产品,管理各种投资账户,如TFSA,RRSP等。同时,我们帮助客户申请加拿大特有低息无抵押投资贷款Investment Loan,提早实现财富自由。

过去10年历史年均回报率

20%+

最适合长期投资者

财富快速增长