新智慧报告编辑:Rhino 【新智慧介绍】随着Gemini 3机型和第七代TPU的强势推出,谷歌终于打破了OpenAI和Nvidia主导市场的叙事,宣告这个“沉睡的巨人”已经全面觉醒,展现出无条件的力量。 ChatGPT 推出已经三年了。过去三年来,全球科技界一直沉浸在由两位“双星”主导的叙事中。 NVIDIA负责“铲销”,根据GPU硬件的不同提供高达80%的毛利率。 OpenAI 负责“开采黄金”,并坚信通过缩放法则来定义模型边界。大家都认为,谷歌这个曾经被分析师认为是AI竞赛中“落后者”的巨头,只能扮演接受者的角色。但现在一切都不同了。上个月,谷歌推出其系列机型Gemini 3和第七代Ironwood TPU,引起了市场前所未有的震动。黑斑羚ct并不是因为谷歌“封杀”了对手,而是因为它直接改写了游戏规则。作为ASI行业地图11月号的一部分,本文深入分析了谷歌如何利用其独特的“全栈AI”战略,构筑一条对手难以模仿的护城河,并重新登上顶峰。 “沉睡的巨人”已经完全苏醒。 《双子座3》上映后,就连奥特曼也很少发声,承认自己在一些重要维度上确实“落后”。更引人注目的是,英伟达的股价也随之下跌,过去一个月下跌了约 15%。如此大幅的下降迫使该公司发布声明,强调GPU的多功能性和CUDA生态系统的不可替代性。与此同时,谷歌母公司Alphabet股价一路飙升,市值即将达到4万亿美元。所有这些都指向同一个事实。谷歌,这个“沉睡的巨人”,现在已经满了醒着。这意味着我醒了。这背后的驱动力是“全栈AI”战略,即AI技术栈的完整垂直整合。正如谷歌首席执行官桑达尔·皮查伊在 Gemini 3 发布会上所说,我们拥有独特而全面的人工智能创新方法,从尖端基础设施到世界一流的研究、模型和工具,再到惠及全球数十亿人的产品,使我们能够以前所未有的速度向世界提供先进的能力。更好的性能:Gemini 3和Nano Banana的非线性进步 与Gemini 2.5 Pro相比,Gemini 3的进步并不体现在“参数翻倍”,而是在推理能力和多模态架构方面的显着进步。谷歌将其定位为基于尖端推理能力的原生多模态模型。在同一模型内同时处理文本、图像、音频和视频,以统一的内部表示进行跨模态推理,d 在多个传统基准测试中取得最佳结果。在LMArena竞技场排名中,Gemini 3 Pro目前在多个项目中占据第一名。 Gemini 3还以73分的成绩荣登专注于通用智能的人工智能分析智商排行榜。如果说Gemini 3是智能的巅峰,那么Nano Banana Pro就是实用性与创造力的狂欢。 Nano Banana Pro一经发布,立刻引发了一场“社交狂欢”。只需极其简单的线条,就可以生成高质量的战力排名、知识百科和各种表情符号。谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)也表示,Nano Banana Pro代表了信息图表一代的突破。该应用程序的这一强大属性允许普通用户释放他们的创造力。正如互联网让更多人成为创造者一样,人工智能工具也让更多人以自己能想到的方式表达自己。知道了。信息组Nano Banana Pro 制作的 aphic “全栈 AI”在垂直整合建模能力方面的进步可能只是冰山一角。要了解谷歌的力量,你需要更深入地研究其潜在的战略本质:完整的垂直整合。如果你把人工智能的进步视为登月计划,你的竞争对手可能只拥有最先进的火箭(模型)或最强大的燃料(GPU)。而谷歌却建造了一整套“太空中心”,集燃料制造厂、火箭设计实验室和发射台于一体。这种“完整的人工智能”范围从底层基础设施、世界一流的研究(模型和工具)到面向用户的产品和平台。换句话说,谷歌几乎自己控制着一切,从 Nano Banana 等应用程序到它们背后的模型,再到最低级别的芯片。 TPU 的诞生和演变 谷歌全栈的故事始于一次明显被迫的“自助”策略。 2015年,谷歌推出TPU v1内部立即得到各部门的热烈响应。这并不是为了炫耀他们的技能,而是迫使他们面对“如果自己不做研究,未来的业务规模将难以维持”的现实。就在那一刻,当深度学习开始渗透到谷歌的核心业务,比如搜索和广告时,谷歌的工程团队注意到了一个重大问题。一旦深度学习模型全面采用,谷歌全球数据中心的功耗将飙升至难以承受的水平。当时,GPU非常适合训练大型网络,但其能效并不是为实时在线推理而设计的。这让谷歌高管意识到,现有的继续依赖CPU和GPU的道路是不可持续的。因此,谷歌决定打造自己的专用芯片(ASIC),即TPU,并设定了一个非常简单的高级目标。就是AI模型的训练。这是极端的y 效率很高,因为处理和执行只需要一个矩阵和向量运算。 2017年,当著名的Transfo文章发表时,谷歌很快意识到这种新架构的计算模型非常规则,具有非常高的矩阵密度,并且并行度非常高。专为 TPU 制造。因此,他们将软件架构、编译器、芯片架构、网络拓扑和散热系统掌握在自己手中,形成了全栈闭环。这样,TPU就成为了谷歌人工智能基础设施的基础和支柱。目前,TPU已发展到第七代Ironwood。如果说 TPU v4/v5p 是兼顾训练和推理的全能型产品,那么 Ironwood 就是不断提高训练能力、同时将推理作为设计核心的一代。换句话说,它是一个优先考虑大规模推理并可以处理训练大型模型的自定义工具s。与第6代TPU Trillium(v6e)相比,Ironwood针对训练和推理工作负载的单芯片性能提升了4倍以上。与 TPU v5p 相比,峰值计算能力提高了 10 倍。它也是 Google 迄今为止最强大、最节能的 TPU。一个 Ironwood Superpod 可容纳 9,216 个 TPU。利用9.6 Tb/s级芯片间互连和约1.77 PB的高带宽共享内存,显着减少大规模模型训练和推理的通信瓶颈,使复杂的AI模型能够在超大型集群上更快、更可靠地运行。此次到来意味着谷歌正式将架构和资源重心从“训练”转向“训练+大规模推理集成”,公开将“推理时代”定义为下一阶段AI基础设施的主战场。 Ironwood + AI Hyp通过计算机的系统级组合,Google正在同步对标NVIDIA两个方面:单芯片性能和机房级计算能力密度,以及争夺下一代人工智能基础设施的话语权。 Ironwood Super Cabinet 中的 9,216 个 Ironwood TPU 模型直接连接到单个域。硬件与谷歌AI全栈战略的紧密契合,最能体现在软硬件的融合上。使用这个从芯片到数据中心再到模型架构集成的系统,谷歌将以前单独的链接编织成绳索,从而提高了性能和效率。例如,Ironwood 是一个连续闭环的产物,其中研究人员影响硬件设计,硬件加速研究成果。当需要对更高级别的模型进行特定的架构改进或优化时,Google DeepMind 团队可以直接与 TPU 工程团队密切合作进行创新。这种内部协作确保了del 架构设计始终基于下一代 TPU 进行训练,与上一代硬件相比,实现了显着的性能改进和加速。 Jupiter 的数据中心网络可以将多个 Ironwood 超级 Pod 连接成包含数十万个 TPU 的集群。现在,谷歌的创新周期又迈出了一步,达到了“AI设计AI”的境界。他们使用一种名为AlphaChip的人工智能技术来设计下一代芯片的设计方案。 AlphaChip 使用强化学习来生成更优化的芯片设计。迄今为止,该方法已成功用于设计连续三代 TPU,包括 Ironwood。这大大减少了谷歌对外部半导体设计工具和供应商的依赖。谷歌凭借其本地芯片和内部优化,在计算能源成本上取得了天然优势,从而避免了昂贵的“CUDA税”。 Google 的内部衡量标准评测显示,相同负载下,Ironwood 的推理成本比旗舰 GPU 系统低 30% 到 40%。一些分析师指出,谷歌提供类似推理服务的基本成本可能仅为其竞争对手的 20%。在推理时代,这种成本差异足以改变大客户的架构选择。对于每年在推理上花费数千万甚至数亿美元的公司来说,减少 30% 到 50% 的支出足以重写他们的财务报告。从这个意义上说,TPU 正在成为许多企业重建推理基础设施时首选的算力引擎。谷歌本身正试图将TPU从“内部黑科技”转变为市场上的“绿色选择”,从而吸引Anthropic和Meta等大客户。只有 Anthropic 可以使用最多 100 万个 TPU。谷歌还推出了TPU@Premises计划,将TPU直接部署到企业数据中心,同时帮助客户以极低的延迟在本地使用推理功能。最近的市场传言表明,Meta 正在考虑于 2027 年在其数据中心部署 TPU,并从明年开始将部分计算能力租赁给 trvia Google Cloud。不管最终如何实现,这种讨论本身就表明TPU已经进入了各大互联网公司的选项集。回到更量化的层面:根据谷歌第三季度财报,谷歌云新客户数量同比增长近34%。超过10亿美元的大订单规模超过了前两年的总和。超过 70% 的客户使用 Google Cloud AI 产品。这些变化将增加计算能力成本和制造成本。这与谷歌在产品形态上的优势密切相关。 C 面:完整人工智能的终极引擎。正如谷歌首席执行官皮查伊此前所言,谷歌的整个人工智能战略是涵盖人工智能基础设施、世界一流的研究(包括模型和工具)以及为世界各地用户提供人工智能的产品和平台的综合系统。 C端产品,特别是搜索、地图等核心业务以及Gemini、Nano Banana Pro应用等AI新应用,不仅是战略的最终产品,也是驱动整个AI生态的核心引擎,是实现技术验证、数据积累和业务闭环的关键。谷歌无与伦比的用户规模和数据广度为定制硬件和核心模型提供了无与伦比的“炼金炉”和“试验场”。这些数据源包括 Google 搜索、Android、YouTube 等。谷歌本身通常会使用这些数据。像Gemini系列这样的机型被认为是贯穿所有Google产品的主线。 2025 年第三季度,GoogleGemini 等第一方模型将通过直接到 cu 每分钟处理约 70 亿个代币仅存储 API。跨搜索、YouTube、Android等平台,该模式每月消耗的代币数量超过1.3百亿,一年内增长了20多倍。这些数据充分体现了C系列产品作为AI能力载体的巨大规模。此外,Gemini 应用程序推出后不久,每月活跃用户就超过 6.5 亿,使其形成了推动人工智能进步的数据飞轮。以谷歌AI模式为例。自推出以来,我们在美国看到了每周强劲、持续的增长,询价量在一个季度内翻了一番。第三季度,其日活跃用户超过7500万,全球用户数达到4000万。l世界语言均得到支持。最重要的是,人工智能模式逐渐增加了搜索查询总量。谷歌12月2日宣布将把AI模式整合到Search中,为Search用户提供类似ChatGPT的聊天体验。该C系列产品成功转型将人工智能技术转化为现实的业务增长,进一步确立了谷歌在核心领域的竞争优势。换句话说,谷歌的终端产品(如搜索)是完整人工智能战略的需求源、数据场和业务输出。这些C端产品产生真实的流量和使用压力,同时不断向谷歌的TPU和Geminis发送反馈,让他们能够节省资金并通过高频迭代变得更加高效。全栈人工智能:改写科技文明的基础。在当前“推理为先”的AI时代,谷歌是第一家将竞争从单一模型冲刺转变为全栈系统马拉松的公司。此时,真正的问题不再是谁拥有更多芯片、更先进模型,而是谁主导了“基础设施-科研-产品-数据”闭环。展望未来,如果说过去的互联网解决的是“如何查找信息”,那么全人工智能将解决“世界如何重组”。五月像谷歌这样的科技公司能否将这种人工智能闭环转化为更公平的教育、更高效的科学研究和更可持续的产业,将在很大程度上决定下一代科技文明的形态。到那时,我们可能不再刻意谈论AI。这是因为AI将成为文明的默认背景。d-vms-for-your-ai-workloadshttps://cloud.google.com/transform/ai-specialized-chips-tpu-history-gen-ai?utm_source=chatgpt.com 秒聊ASI ⭐点赞、转发、观看只需一键连3个链接⭐让你的星星闪耀,包容信重的快推!
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由社交媒体“网易号”用户上传发布l 仅提供信息存储服务的媒体平台。

admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注