如果說過去云計算解決的是“計算資源的供給和應用問題”,那么在智能體時代,Google 試圖解決的,是“數字勞動力如何被組織、調度與治理”的問題。
圖文 | Gemini A I 小分隊
責編 | CSDN 編輯部
出品丨AI 科技大本營(ID:rgznai100)
今年,Google 計劃投入高達 1750 億至 1850 億美元的總資本支出,這一數字在短短四年內暴漲了近 6 倍。不僅如此,按照其戰略規劃,到 2026 年底,Google 超過一半的機器學習算力將被直接投向云業務。而在此刻,近 75% 的 Google Cloud 客戶已經跨越了淺嘗輒止的試點,真刀真槍地在生產環境中運行著 Google 的 AI 產品。
![]()
一個無法回避的行業級問題隨之浮出水面:在基礎模型能力日漸趨于動態平衡的今天,Google 如此駭人聽聞的燒錢速度,到底在搶奪什么?
CSDN 高級副總裁、奇點智能研究院院長李建忠 和 CSDN & 《新程序員》執行總編唐小引來到拉斯維加斯,現場直擊 Google Cloud Next 26。
我們這次看到的,不只是最新 Gemini 家族模型和一場展示跑分成績的技術秀,更是 Google 在 Agent 時代的一次身份轉向,它已經不再滿足于做一家只給開發者提供 API 的模型公司——它想做的,是企業邁入“智能體時代(Agentic Era)”的終極總包商。
![]()
這次大會從頭到尾都在講同一件事:怎么把底層芯片、跨云數據、治理、安全、平臺和員工日常使用的工作入口,接到同一套系統里。企業 AI 的競爭也在往這里走,單看模型誰更強,已經不夠了。接下來更關鍵的是,誰能把系統真正搭起來,接進企業內部,穩定跑起來。
? 17 分鐘音頻帶開發者朋友們聽完 Google Cloud Next 大會全程!
![]()
競爭的偽命題被戳破:如何管理成千上萬個 Agent
在過去的長達兩年多的時間里,整個科技界和企業界都在圍繞一個極其初級的問題打轉:“我們能不能構建一個好用的 AI 助手?”
無數的企業在做 PoC(概念驗證),在嘗試用大語言模型去寫一封郵件、生成一段摘要,或者解答一個簡單的客服問題。但這種“孤立的實驗”正在暴露出巨大的局限性——拼湊零散的芯片、調用孤立的模型、耗費數周的人工去硬編碼編排邏輯,根本無法創造實質性的商業價值。
Google 兼 Alphabet 首席執行官Sundar Pichai在大會開場時,一針見血指出了當前企業 AI 的核心痛點:“大家討論的問題,已經從「我們能構建一個智能體嗎?」變成了「我們該如何管理成千上萬個智能體?」 ”
![]()
這句話點到了企業上 Agent 之后真正會遇到的問題。
AI 一旦不只是回答問題,而是開始自己規劃、自己調用工具、自己跨系統執行任務,問題就不再只是模型夠不夠聰明,而是這些東西怎么被管理、怎么被約束、怎么在企業里安全協同。財務部門可以隨手做一個拉營收數據的智能體,市場部門也可以讓智能體自動發送帶定價策略的郵件。如果上面沒有統一系統,這套東西越靈活,風險反而越大。
在 Google 內部,這種轉變已經發生。Pichai 透露,Google 現在接近 75% 的新代碼由 AI 生成,再由工程師審核通過。更重要的是,他們已經開始用多個智能體協同去重構開發流程。在一次復雜代碼遷移里,負責規劃、統籌、編碼的不同智能體一起工作,把速度拉高了 6 倍。
當模型能力不再是稀缺資源,如何讓成百上千個 Agent 在企業內部有序、安全、可預測地協同工作,才是真正的深水區。Google 看到了這一點,并決定以此作為其云業務下一階段的最高戰略綱領。
![]()
![]()
Unified Stack:不賣零散工具,賣“企業智能體操作系統”
既然問題已經變成了系統級難題,解法自然不能是售賣單點工具。
Google Cloud 首席執行官Thomas Kurian在舞臺上擲地有聲地拋出了 Google 的解題思路:Unified Stack(統一技術棧)。
在過去的科技敘事中,云廠商習慣于各講各的故事:硬件部門大談芯片算力,AI 部門炫耀模型參數,數據部門推銷數據庫,安全部門強調防火墻。但 Kurian 此次勾勒的,是一張渾然一體的“智能體企業全棧藍圖”。
![]()
這是一個由五層架構嚴密咬合的生態系統:
AI Hypercomputer(底層算力):專為智能體物理特性優化的極速底座;
Agentic Data Cloud(數據引擎):破解暗數據,提供零移動的“可信業務語境”;
Agentic Defense(安全防御):以機器速度運行的自主免疫系統;
Agentic Platform & Models(中樞平臺與模型):包含前沿模型與全生命周期治理的任務控制中心;
Agentic Taskforce(數字特遣隊):蓄勢待發、重塑客戶體驗與內部生產力的專用智能體。
看似是五個產品,但 Google 這次更想讓企業接受的,是不同以往的全新買法,不是買幾個零件回去自己拼,而是直接買一套企業智能體操作系統。芯片是底座,模型是內核,數據是上下文,Gemini Enterprise Agent Platform 負責統一調度。
意思很直白:不要再試圖用不同廠商的開源模型、拼湊的向量數據庫和第三方的監控工具去搭建“草臺班子”了,我能給你一套能在全域環境下絲滑運轉的工業級解決方案。
![]()
為智能體時代準備的算力“殺手锏” :Google 第八代 TPU
為了支撐起這套龐大的操作系統,Google 首先在物理世界進行了一場極致的自我革命。
過去幾年,業界一直試圖用一種通用的大算力芯片打天下。但 Google Cloud AI 基礎設施首席技術官Amin Vahdat帶來了一個截然不同的物理學洞察:步入智能體時代,訓練(Training)和推理(Inference)的需求已經徹底分化。
訓練模型,要的是吞吐量、帶寬、集群規模。真正把大量智能體跑進生產環境里,企業更在乎的是延遲、并發和成本。拿訓練芯片去承接高頻交互,本質上不劃算,就像拿重卡去送外賣,能送,但不合適。
![]()
基于這一判斷,Google 史無前例地推出了拆分架構的第八代 TPU(TPU v8),將底層算力供給生生劈成了兩半:
一半是代號為 Sunfish 的 TPU 8t。這頭由 Broadcom 協助設計的“訓練怪獸”,通過將塊級乘法直接移入 MXU 內部實現原生量化,單個 Pod 提供 121 Exaflops 的 FP4 算力,配備了令人咋舌的 2 PB 共享高帶寬內存——足以裝下美國國會圖書館全部數字藏品的 100 遍。結合高達 47 PB/s 無阻塞帶寬的全新 Virgo 網絡,Google 現在能將百萬個 TPU 融為一體,將極其龐大的前沿模型訓練周期從數月暴力壓縮至幾周。
另一半,則是代號為 Zebrafish 的 TPU 8i。這才是 Google 專為智能體時代準備的“殺手锏”。由 MediaTek 協助設計的 8i 完全為低延遲推理優化,通過將內存緩存完全托管在芯片上,打破了阻礙長上下文解碼的“內存墻”,將延遲暴降了 5 倍。憑借全新的蝴蝶拓撲結構,它能在單 Pod 中以近乎零的延遲運行數百萬個并發的智能體。
![]()
再往下看,Google 還給高交互場景配了 C4N 和 M4N 實例,也在繼續推自研 Arm 架構的 Axion CPU。總之,這么多年 TPU 的路線其實都很相似:算力不再由單一芯片定義,而是整個數據中心要跟著任務類型去重新組織。
像 Citadel Securities 這種對延遲極端敏感、每天處理超過 5000 億美元交易的客戶,遷到這套設施后,速度提升 2 到 4 倍,成本還能降 30%。這類案例,也是 Google 想證明系統重構有價值的地方。
![]()
跨越“幻覺”死局:數據層才是真正的卡點與護城河
光有模型和算力,還遠遠不夠。企業 AI 一旦真往業務里走,最難的地方很快就會冒出來,數據不在一處,上下文也不完整。
Google Cloud 首席產品與業務官Karthik Narain在臺上說得很直接:沒有上下文的推理,本質上就是盲猜。
很多企業今天并不缺模型,缺的是可信的業務語境。真正有價值的數據,散在 PDF、會議錄音、SaaS 應用和不同云廠商的數據庫里。模型再聰明,拿不到這些上下文,也很難做出穩定判斷。
![]()
Google 這次重構的 Agentic Data Cloud,基本就是沖著這個卡點去的。里面最值得看的,有兩個東西。
第一個是Knowledge Catalog。
過去企業想讓 AI 理解 PDF、圖片、文檔,前面往往要先做一大堆數據清洗、向量化、圖譜構建。Google 現在想把這件事往前收。按照它的演示,一份非結構化圖片或 PDF 進入 Google Cloud 之后,Smart Storage 會先自動打標簽,Knowledge Catalog 再繼續往下讀文件、抽實體、連關系。
大會上那個“午夜漩渦凍酸奶”的演示就很典型。新配方里看不出大豆過敏原,普通關鍵詞搜索也搜不到。但系統順著 Knowledge Catalog 去翻暗數據,最后在另一份原本沒被關聯起來的供應商手冊 PDF 里,找到了一種名叫 Base 204 的原料,并確認里面含有大豆。原來可能要查好幾周的事,被壓到了幾秒鐘。
第二個是Cross-Cloud Lakehouse。
這一步其實很關鍵。過去云廠商都想讓企業把數據搬到自己的云上,Google 這次承認了另一件事,大企業的數據天然就是多云、分散的。所以它基于 Apache Iceberg,允許智能體直接對 AWS S3 和 Microsoft Azure 里的數據做低延遲推理,而且不需要先把數據整批搬過來。
再加上 Lightning Engine for Spark,Google 講的是另一種能力,智能體可以直接跨云找數據、做匹配、跑模擬。這對 Google 來說也不只是補能力,它是在借智能體這件事,把自己的系統往別人的云里接。
![]()
沒有剎車,智能體就是脫韁野馬
企業真正擔心的,從來不只是 AI 能干什么,還有它會不會把事情搞砸。
如果成千上萬個拿到執行權限的 Agent 可以隨意調 API、查數據庫、發財務郵件,那等于把一批不完全可控的數字員工直接放進公司系統里。這個問題不解決,規模化落地就很難往前走。
Google Cloud 首席運營官兼安全產品總裁Francis deSouza這次提到一個詞,影子 AI。意思是,那些已經在企業內部跑起來,卻沒被統一看見、統一管理的智能體。
所以 Google 這次把治理和安全放得很靠前。在平臺治理層,它推出了Agent Identity(智能體身份)和Agent Gateway(零信任網關)。在 Gemini Enterprise 平臺里,每個智能體都可以拿到唯一加密 ID 和授權策略,每一次調用、每一步跨庫查詢,都能通過 Agent Observability 做可視化記錄,再配合 Model Armor 做隔離。
這套東西說白了,就是給數字員工補一套身份體系、訪問邊界和監控能力。
而在主動安全防御層面,Google 此前花費 320 億美元天價收購云安全巨頭 Wiz,這次終于是伏筆回收了。
![]()
面對從初始訪問到移交黑客組織的交接時間已經銳減到 22 秒的現代攻擊,人類分析師已經徹底出局。Wiz 聯合創始人 Yinon Costica 展示了由 Wiz 和 Google SecOps 聯合打造的Agentic SecOps(智能體安全運營中心)。
這套系統部署了專家級的 AI 智能體特遣隊:
紅色智能體(Red Agent)就像不知疲倦的白帽黑客,從外部不斷探測企業云環境中暴露的智能體接口(例如演示中發現的身份驗證繞過漏洞);
綠色智能體(Green Agent)會自動將漏洞進行風險分類,精準定位到導致風險的那行代碼,并將修復 PR(拉取請求)直接發送給開發者的編程 IDE 中;
藍色智能體(Blue Agent)則結合 Google 的全球威脅遙測,將原本需要 30 分鐘的調查時間極限壓縮到 60 秒。
這是以機器的速度對抗機器。Google 想證明的是,安全不應該永遠是事后補丁,而要在系統里提前長出來。
![]()
從 Demo 走向“數字勞動力”的流水線
把算力、數據和安全底座夯實之后,真正的舞臺交給了Gemini Enterprise Agent Platform。
這是企業智能體時代名副其實的“任務控制中心”。
這次模型層的更新很多。不僅有專為跨域規劃與自主執行而生的Gemini 3.1 Pro,更有專攻高吞吐量多媒體處理的Veo 3.1 Lite(視頻)、Lyria 3 Pro(音頻)以及Nano Banana 2(極速高保真視覺)。此外,架構極具創新性、采用混合注意力機制(Hybrid Attention)的Gemma 4,也極大地拉低了端側和邊緣側執行代理任務的門檻。
![]()
但比模型列表更重要的,是平臺層怎么把這些東西裝進企業流程里。
比如Low-Code Agent Studio,Google 想把做 Agent 這件事,從工程團隊專屬能力,往業務團隊手里再推一步。沒有編程基礎的人,也可以用自然語言把企業內部邏輯接到大模型上。
再比如MCP,Model Context Protocol。Google 這次對 MCP 的支持很高調。GCP 自己的服務、Atlassian、ServiceNow,甚至客戶自建數據庫,都可以通過 MCP 變成智能體可調用的能力。
這類發布背后其實都是一個方向,Google 不想讓 Agent 永遠停在 demo 階段。它想把 Agent 變成可以進企業、受治理、能交接、能匯報的數字勞動力。
![]()
Agentic 時代,開發者的定義正在變寬
在 Google Cloud Next 2026 的現場,我們還邂逅了 Google Cloud Developer Marketing Senior Director(開發者營銷高級總監)Ricky Robinett。
![]()
和主舞臺上那些關于模型、平臺與 Agent 的宏大敘事相比,和他的這段交流把 Google 這次真正想講給開發者聽的東西落得更實了一層。
如今的變化不只是今天可以更快地寫出多少代碼,或者多調用幾個模型 API,而是開發者面對系統的方式本身正在變化。
過去做傳統應用時,很多問題還可以靠經驗、腳本和一串 console.log 往下排查,但一旦開始構建真正會自主規劃、自主調用工具、跨系統執行任務的智能體應用,開發者很快就會發現,老辦法不再夠用,系統需要的是一整套圍繞可觀測性、編排、治理和平臺能力重建起來的新基礎設施。
更有意思的變化還在另一層。Ricky 反復提到,隨著 Agentic Coding 持續降低門檻,未來真正稀缺的能力,可能不再只是掌握多少語言、框架和工程細節,而是能不能像開發者一樣思考,知道如何定義問題、拆解流程、組織上下文,再把一個模糊的想法變成真正可運行的產品。
也正因為如此,“開發者”這個群體本身也在被重新定義。過去它更多指向傳統工程師,但在這一輪變化里,產品經理、運營者,甚至原本不在技術路徑里的人,都可能因為自然語言、低代碼工具和 Agentic 平臺的成熟,第一次真正進入構建應用的流程。
![]()
爭奪終極入口:Workspace 不僅是工具,更是操作臺
但對 Google 來說,把開發者一側的平臺層講清楚,還不是終點。
再強大的后臺引擎,如果員工不用,也只是一堆昂貴的代碼。所以 Google 這次還有一個很明顯的動作,繼續搶工作入口。它盯的不是單獨某個 AI 助手按鈕,而是員工每天真正待得最久的那層界面。
Google Workspace 產品副總裁Yulie Kwon Kim在臺上舉了一個很常見的白領場景,你只是想回答一個簡單問題,結果十分鐘之后已經打開了十幾個標簽頁,一半時間在找信息,一半時間在想怎么處理。
Google 這次發布的Workspace Intelligence,想解決的就是這個問題。它不是 Gmail 里多一個功能,也不是 Docs 里多一個助手,而是一個橫在 Gmail、Docs、Slides、Chat 上面的統一智能層。
![]()
在區域經銷商籌備發布會的演示中,當用戶在 Google Chat 收到一條新品到貨通知時,Workspace Intelligence 充當了全能的調度員。它能聽懂“找出上個季度那份帶有區域銷售圖表的推介手冊”這樣極為口語化且依賴歷史記憶的指令,瞬間在海量云盤中揪出目標;緊接著,它能調用 HubSpot 的實時盈虧數據,應用企業的品牌視覺規范,直接在后臺自主生成一份完整的 Google Slides 匯報材料。
與此同時,在更為專業的設計與開發領域,極具科幻感的Vibe Design理念與Google Stitch工具,更是將這種“意圖直達結果”的入口體驗推向了極致。員工只需通過語音和無限畫布,描述想要的“氛圍”或業務邏輯,系統就能直接生成高保真 UI 和機器可讀的 Design.md 規范代碼。
你給出語音、畫布和業務邏輯,系統去生成高保真 UI 和可讀代碼規范。這也是同一條路,把人的意圖盡量直接接到結果上。
![]()
開放,是刺向“圍墻花園”最鋒利的劍
將整套系統打包售賣,最容易引發企業的恐懼:我會不會被 Google 徹底鎖定?
有意思的是,Google 這次反而非常強調開放。它不僅支持 Anthropic 的模型,包括最新的Claude Opus 4.7,也在底層接入了 NVIDIA Vera Rubin NVL72,還通過 Cross-Cloud Lakehouse 去打通 AWS 和 Azure 的數據,并繼續增強和 Microsoft 365 的互操作性。
結合其豪擲 7.5 億美元支持埃森哲、德勤等十幾萬生態合作伙伴的“生態基金”,Google 其實看得很清楚,大企業天然害怕被單一廠商鎖死。
當別人想用封閉的 API 和大模型把你關進圍墻花園,Google 這次放開給你自由的硬件選擇、無界的數據直連和全球頂尖的模型底座(無論是他們的還是對手的)。但只要你想要獲得最好的治理、最強勁的網絡編排和最絲滑的生態融合——你最終還是會回到 Google 打造的這套底層架構上。
![]()
獨家解讀:云計算服務模式正在被系統性重寫
AI 已經不再是屏幕上那些討巧的文字對話框,它正在以計算的速度,解析并重構物理世界與商業世界的每一寸肌理。
過去咱們每逢發模型就“爆”個不停,爆了三年之久,現在押注某個“ChatGPT 時刻”的年代也該過去了。接下來的十年,科技巨頭之間比拼的,將是誰能把龐雜的算力、無序的數據、嚴苛的治理、全自主的安全以及數以億計的員工入口,天衣無縫地焊成一套能夠自我進化的企業級運轉系統。
以下是 CSDN 高級副總裁、奇點智能研究院院長李建忠的獨家解讀:
1. Google 正在重構云計算的底層范式
Google Cloud Next 2026 最值得關注的,并不是某一個模型或產品,而是云計算服務模式正在被系統性重寫。
過去二十年,云計算的分層結構 IaaS/PaaS/SaaS 是清晰而穩定的。但在智能體成為執行主體之后,這一分層邏輯正在發生結構性坍塌。Google 此次提出的 Unified Stack,本質上并不是產品組合的升級,而是一次對云計算分層邏輯的重構。
在基礎設施層,Google 通過第八代 TPU 與 AI Hypercomputer 架構,將訓練與推理分離,IaaS的本質已經從提供“硬件資源租賃”轉向提供“圍繞 Token 生產的智能輸出能力”。
在平臺層,PaaS 正在被拆解并重組為兩類核心能力的組合:一類是以 Gemini 為代表的 MaaS(Model as a Service),負責提供標準化的模型能力供給;另一類則是以 Gemini Enterprise Agent Platform 為核心的 Agent Runtime,負責智能體的執行、調度與治理。這一變化意味著,云平臺不再只是“部署應用”,而是在運行“具備自主決策能力的執行單元”。
在應用層,SaaS 正在從“功能交付”走向“任務交付”。傳統軟件要求用戶在系統中逐步操作以完成任務,而在 Agent 驅動的服務中,用戶只需表達意圖,多智能體協同以結果為中心進行交付,SaaS 被重構為 AaaS(Agentic as a Service)。
2. 企業數字勞動力的“操作系統”
如果說云計算的底層結構正在被重寫,那么這次發布中最關鍵的“中樞變量”,就是 Gemini Enterprise Agent Platform。它試圖將 Agent 從“零散的實驗組件”,升級為“可管理、可治理、可規模化運行的智能體操作系統”。
這個平臺并不是孤立存在的,而是嵌入在 Google Cloud 整個 Unified Stack 之中:底層由 TPU 與 AI Hypercomputer 提供算力,中間通過 Agentic Data Cloud 提供業務語境,Agentic Defense 提供安全防御,Agentic Platform & Models,提供模型與智能體全生命周期治理,上層通過 Workspace Intelligence 接入員工日常工作入口。
如果說過去云計算解決的是“計算資源的供給和應用問題”,那么在智能體時代,Google 試圖解決的,是“數字勞動力如何被組織、調度與治理”的問題。
Google Cloud Next 26 大會這幾天仍在火熱舉辦,歡迎大家持續關注 AI 科技大本營和 CSDN 視頻號,后續關于開發者 Keynote 的跟進報道以及主線視頻會在視頻號發布~
* 本文參與創作 AI:Gemini 3.1 Pro + Nano Banana Pro + NotebookLM
(投稿或尋求報道:zhanghy@csdn.net)
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.