跳至主要內容

Clawdbot 大革命:為什麼這隻「龍蝦」AI 正在贏得代理人戰爭?

Google TPU:從「內部神器」變成撼動 NVDA 的 AI 武器?


Google TPU:從「內部神器」變成撼動 NVDA 的 AI 武器?  


Google TPU 是 Google 自家為 AI 打造的專用加速晶片,從早期只在內部服務使用,到今天變成雲端產品與獨立 AI 晶片業務,正在改變整個 AI 基礎設施的遊戲規則。 在這個過程中,TPU 一邊幫 Google 降低自家 AI 成本,一邊直接走向外部銷售與雲端供貨,對目前在 AI 晶片幾乎壟斷的 Nvidia 形成實質的長期威脅,同時也可能讓未來 AI 產品「更便宜、更省電、更 everywhere」。


什麼是 TPU?為何 Google 要自己做晶片?  


TPU(Tensor Processing Unit)不是一般通用 GPU,而是針對矩陣乘法、向量運算這種深度學習核心工作負載設計的 ASIC 晶片,特別對現在的 Transformer、Llama、Gemini 類模型極度友善。 早年 TPU 主要藏在 Google 的資料中心裡,默默幫 Search、YouTube、廣告推薦系統加速,外界只看到「Google AI 很強」,卻看不到背後的硬體差異;到了這幾年,Google 開始開放 Cloud TPU 給企業客戶使用,並在 2025 年之後,把最新一代 TPU 產品線(如 Trillium、Ironwood / TPU v7)推向更大規模的雲端市場,甚至計畫讓客戶在自己的 data center 直接部署。

從 v1 到 Ironwood:專門為 LLM 時代而生  


如果把 TPU 的演進拉長來看,它其實是一條很「Google 風格」的路線:  
  • 2016:TPU v1,只做推理,用在內部產品。  
  • 2017–2020:TPU v2 / v3 / v4,引入訓練、Pod 架構與液冷,大幅增加規模與能效。  
  • 之後:v5e/v5p、Trillium,開始強調「perf/W」和大規模分散式訓練。  

2025 年的主角,是代號 Ironwood 的第七代 TPU,也就是 TPU v7。Ironwood 針對「推理時代」(age of inference)設計,重點不再只是訓練,而是讓超大型 LLM 和推理模型在超大規模下「既快又省電」地跑起來。 單顆 Ironwood TPU 擁有數 PetaFLOPS 等級的 FP8 算力、超過百 GB HBM 記憶體和極高頻寬,官方提供的 Pod 配置更是誇張:最多可以堆到 9,216 顆晶片,整體 compute 相當於一台專門為生成式 AI 打造的超級電腦。 這樣的設計,目標很直接:為 Gemini 2.5 這類超大模型提供穩定的訓練與推理平台,同時讓外部客戶可以在 Google Cloud 上以「超高密度+液冷」的方式啟動 AI 工作負載,而不用自己鑽研硬體調教細節。

能效與碳排:AI 擴張的隱形關鍵  


Ironwood 的另一個關鍵,是能效與碳排。Google 在 2025 年釋出的研究指出,從 TPU v4 演進到第六代 Trillium,AI 工作負載的「碳效率」已經提升約 3 倍,也就是同樣的計算量、碳排可以被壓到原本的三分之一左右。 在此基礎上,Ironwood 再把每瓦效能相對上一代進一步提升,等於短短幾代之間,整體 perf/W 疊加的效果非常驚人,對那些在意 ESG、需要大規模跑 LLM 的客戶來說,這種能效提升直接代表電費、碳足跡和「能不能說服董事會繼續擴張 AI 預算」的現實問題。 從更宏觀的角度看,當主流 AI 晶片變得更省電、更容易吃到綠電時,政府與監管機構對大規模 AI 計畫的態度也會比較友善,反過來推動 AI 應用加速落地。

TPU vs GPU:不只是一場規格戰  


相比之下,GPU 世界仍然是 Nvidia 的天下。Nvidia 透過 CUDA 生態及早押注 AI,形成軟硬體深度綁定,讓多數 AI 團隊的第一選擇仍然是「買 GPU、寫 CUDA 或跑在相容框架上」,這種早期優勢,造就了現今其在 AI GPU 市場非常高的市占率。 但隨著 Ironwood 這種高階 TPU 在性能與能效上逐步接近,甚至在特定場景超越 Nvidia 最新 Blackwell GPU,不少分析開始把 Google TPU 視為「在 AI ASIC 領域可以與 Nvidia 分庭抗禮」的主要對手,尤其是在雲端推理和內部服務上。

從生意模式來看,TPU 對 Nvidia 的殺傷力,很大一部分在「包裝方式」,而不只是在「晶片規格」。Nvidia 的核心模式,是賣 GPU(加上軟體授權和平台服務),由雲端供應商和企業自己搭建服務;Google 則把 TPU 深度整合進 Cloud 產品,變成「AI Hypercomputer」、「Gemini API」這種一站式方案,客戶其實買的是一整套 compute+storage+network+模型+工具鏈,而不是單純一片卡。 當 Google 可用 Ironwood 把自家服務成本壓得更低,再將這種成本優勢透過雲端價格和 bundle 方案釋放給客戶,Nvidia 在雲端市場就會感受到壓力:即使 TPU 尚未完全取代 GPU,只要在推理階段搶下部分工作負載,對 Nvidia 的長期成長曲線就是一種「邊際擠壓」。


Google 從大客戶變成競爭對手  


更敏感的是角色轉變:Google 不再只是 Nvidia 的最大客戶之一,而是積極想要「吃回」這塊利潤。有報導指出,Google 內部設定的目標,是藉由擴大 TPU 採用,有機會搶走 Nvidia 每年 AI 晶片營收的一部分,這已經不只是戰略備援,而是實打實的收入競爭。 近期更有消息稱,Google 正與其他大型科技公司(例如雲端與社交平台巨頭)洽談 TPU 合作,甚至可能讓對方直接採用 TPU 來替代部分 Nvidia GPU 需求,市場解讀也因此出現「Nvidia 最強對手其實是 Google」的說法。[3][16][17][18]

同時,Google 也不再滿足於只在自家雲裡租出 TPU,而是開始談把 TPU 放進別人的資料中心。部分消息指,Google 願意與資料中心營運商簽訂多年的保底合約,確保對方不會因為「怕沒客戶」而不敢壓注 TPU,這本質上就是在複製過去 Nvidia 與超大規模客戶的捆綁策略,甚至反攻對方的主場。 如果這種「外放 TPU」模式成功,未來企業在考慮 AI 基礎設施時,選項就不再只是「買 Nvidia 卡+自己搭」,還可能是「與 Google 合作,拿一整櫃 TPU+軟體堆疊+長期價保」,供應鏈的談判權力分配會跟現在非常不一樣。

對 AI 發展本身的長期影響  


那這對 AI 發展本身意味著什麼?第一,計算成本曲線會被壓低,特別是推理成本。Ironwood 這類 TPU 在 perf/W 上的提升,再搭配 vLLM、Pathways 等軟體優化,Google 對外宣稱在許多 LLM 推理場景中可以提供更高的性價比,這對想要把「AI 功能塞進每一個產品角落」的團隊來說,是很關鍵的條件。 當每一千次 query 的成本變得更接近「一杯咖啡的零頭」,產品設計思維會從「小心用、少用」變成「預設永遠 on、所有流程都可以問一下 AI」,這就是 agent、copilot 類應用大量湧現的基礎。

第二,能效與碳排的優化,讓 AI 更有機會長期以巨大規模運作而不被「能源與環境壓力」快速卡死。Google 的研究指出,TPU 在短短兩代內把 AI 工作負載的碳效率拉高約三倍,且營運用電占整體壽命週期碳排的大頭,這也意味著「硬體能效+清潔能源」,會是 AI 擴張能否可持續的核心組合。 當雲端供應商可以拿出這樣的數據向客戶與監管機構說明「我們每一單位算力的碳排在下降」,大型政府案、金融機構與跨國企業導入 AI 的阻力就會小得多,推進更多 real-world use cases 落地。

第三,生態將更加分裂但也更加專業化:Nvidia 會繼續主導通用 GPU+CUDA 開發者生態,而 Google TPU 則在 Google Cloud、部分合作資料中心以及自家產品線內打造一個「高度整合、成本極優」的平行宇宙,同時 AWS 的 Trainium / Inferentia 也在推自己的路線。 對開發者與企業來說,未來很可能是多平台共存:用 Nvidia GPU 訓練模型、用 TPU 或其他 ASIC 做大規模推理,甚至按照應用場景在不同雲之間調度,這種「多元 AI 硬體組合拳」會成為常態。結果是:AI 的創新速度可能更快,因為硬體層在互相競爭壓價,但同時,工程團隊也必須學會在不同平台之間做抽象層,避免被任何一個供應商過度鎖定。

對投資者來說,Google TPU 的崛起並不等於 Nvidia 會立刻失寵。短期內,Nvidia 仍然享受高毛利、高需求與強烈生態黏著度,TPU 更像是一個「慢慢啃掉邊緣市場」的對手,而非一槍斃命的殺手。 但長期來說,當 Google、AWS 甚至其他雲端和大客戶陸續推自己的專用 AI 晶片,Nvidia 的議價能力與市占率若逐年被稀釋,估值也需要反映一個「不再是唯一選擇」的世界。在這個新格局下,TPU 代表的,是一條更節能、更雲端原生、更多樣化競爭的 AI 發展道路,而這條路,已經走在成形的途中。

留言

此網誌的熱門文章

從演算法到藝術:揭秘 Google Gemini 視覺設計背後的深度美學

從演算法到藝術:揭秘 Google Gemini 視覺設計背後的深度美學 在過去的幾十年裡,人機互動(HCI)一直遵循著一種「工具模式」:你點擊一個圖示,系統給予一個反應。然而,隨著 Google Gemini 這種生成式人工智慧的出現,傳統的按鈕、選單和靜態圖示已不足以表達其背後的複雜性。 Google Design 團隊近期公開了 Gemini 的設計歷程。這不僅僅是一次品牌升級,更是一場關於「人工智慧應該長什麼樣子」的哲學辯論。以下是這場視覺革命的核心細節。 一、 視覺隱喻:為什麼是「流動」而非「固定」? 傳統軟體的設計核心是「確定性」,但生成式 AI 的核心是「可能性」。Gemini 的視覺設計拋棄了生硬的線條,轉而擁抱 漸層(Gradients)與流動性(Fluidity) 。 非線性的智慧: AI 的思考過程不是一條直線,而是多個維度的交織。設計團隊利用色彩的擴散與融合,隱喻了資訊如何被轉化為創意。 能量的傳遞: 當你與 Gemini 對話時,介面上閃爍的光暈並非裝飾,它代表了一種「能量的轉移」。這讓使用者感覺到,AI 不僅是在檢索資料,而是在與你共同創造。 二、 符號學的根源:隱藏在圓形中的秘密 Gemini 的標誌(那個閃爍的星形)看起來簡約,但其幾何邏輯卻嚴謹得令人驚訝。設計師們回歸到了 Google 視覺語言的原點——圓形。 負空間的藝術: Gemini 的四角星形(Spark)實際上是由四個圓形的「負空間」交匯而成。圓形代表了完美、包容與和諧;而由圓形推導出的星星,則象徵著啟發與魔力。 容器的語言: 這種圓潤感延續到了整個介面。對話框、按鈕和側邊欄都採用了極大的圓角。這種「容器化」的設計語彙(The Vessel)讓強大的技術顯得更平易近人,減少了科技帶來的壓迫感。 三、 動態即是語言:當 AI 開始「思考」 在 Gemini 的世界裡,動態設計(Motion Design)承擔了溝通的重任。以往我們習慣了旋轉的「載入中」圓圈,但 Gemini 帶來了更直覺的感受: 思考的節奏: 當 AI 在處理複雜問題時,介面會出現如同呼吸般的律動。這種節奏是經過心理學計算的,旨在緩解使用者等待的焦慮,並傳達出系統正在「深思熟慮」的訊號。 方向的指引: 動畫的流向會引導使用者的視線。例如,當回應生成時,光影會從輸入框向上流動到內容區,形成一種自然的視覺邏輯。...

代理型 AI (Agentic AI):從「思考」到「實踐」的跨越

代理型 AI (Agentic AI):從「思考」到「實踐」的跨越 在過去幾年裡,全世界都被 生成式 AI(Generative AI) 所吸引——像 ChatGPT 和 Midjourney 這樣的系統,能夠根據指令寫詩、除錯程式碼,甚至創作出令人驚嘆的圖像。那是「聊天機器人(Chatbot)」的時代,AI 總是靜靜地等待你的提示詞(Prompt)來產出內容。 但在 2026 年,風向已經改變。我們正式進入了 代理型 AI(Agentic AI) 的時代。 與專注於產出內容的前輩不同,代理型 AI 的核心在於 產出行動(Generating Action)。它不只是告訴你如何預訂航班;它會登入網站、選擇座位、處理付款,並將行程加入你的行事曆——這一切只需一個高層次的指令。 什麼是代理型 AI? 代理型 AI 指的是具備「代理權(Agency)」的人工智慧系統——即擁有為了達成目標而獨立採取行動的能力。 傳統的生成式 AI 是 被動的(Reactive) (等待使用者一步步下達指令),而代理型 AI 是 主動的(Proactive) 。它可以: 推理(Reason): 分析複雜的問題。 規劃(Plan): 制定解決問題的步驟順序。 使用工具(Use Tools): 操作軟體、API 或瀏覽器來執行這些步驟。 自我修正(Self-Correct): 如果第一次嘗試失敗,它會嘗試修正並重新執行。 核心差異 生成式 AI 就像一位才華洋溢的顧問,他會給你一份完美的計畫,但把執行工作留給你。 代理型 AI 就像一位幹練的員工,他接過計畫並直接執行,只有在必要時才向你回報。 運作原理:「大腦」與「雙手」 要理解代理型 AI,可以將其想像為一個由兩大核心部分組成的系統: 大腦(大型語言模型,LLM): 作為推理引擎。它理解你的意圖(例如:「規劃一個行銷活動」),並將其拆解為子任務(研究競爭對手、撰寫文案、排程發布)。 雙手(工具與 API): 代理系統連接到外部世界。它能夠存取電子郵件、CRM 系統(如 Salesforce)、程式編寫環境或開放的網路。 當代理 AI 遇到障礙時——例如某個網站無法加載——它不會只是顯示錯誤訊息。它會像人類解決問題一樣「思考」替代方案,例如搜尋另一個資料來源或稍後重試。 2025-2026 年的實際應用 代理型 AI 正迅速從研究實驗室走向企業...

Web 2.0 與 Web 3.0 的區別:數位時代的演進

  Web 2.0 與 Web 3.0 的區別:數位時代的演進 隨著網際網路的不斷發展,我們已經從 Web 1.0 的靜態網頁時代進入了 Web 2.0 的互動時代,並正在邁向 Web 3.0 的去中心化未來。Web 2.0 和 Web 3.0 代表了網際網路技術和使用者體驗的兩大階段,但它們在設計理念、技術基礎和影響方面有顯著的不同。本文將深入探討 Web 2.0 和 Web 3.0 的區別,幫助您更好地理解這場數位革命。 什麼是 Web 2.0? Web 2.0 是網際網路的第二階段,始於 2000 年代初,強調使用者參與(User Participation)、互動性(Interactivity)和內容生成(Content Generation)。這一階段的特徵是社交媒體(Social Media)、部落格(Blogs)和用戶生成內容(User-Generated Content, UGC)的興起。 核心特徵: 互動性(Interactivity):用戶可以與網站互動,例如在 Facebook 上發帖或在 YouTube 上評論。 中心化平台(Centralized Platforms):由大型科技公司(如 Google、Meta)控制,負責數據存儲(Data Storage)和用戶管理(User Management)。 用戶生成內容(User-Generated Content):用戶創造內容,例如 Instagram 上的照片或 Twitter 上的推文。 廣告驅動(Ad-Driven):平台通過廣告(Advertising)盈利,依賴用戶數據(User Data)進行定向廣告(Targeted Ads)。 例子:Facebook、YouTube、Wikipedia。 什麼是 Web 3.0? Web 3.0 是網際網路的下一階段,基於去中心化(Decentralization)、區塊鏈技術(Blockchain Technology)和用戶主權(User Sovereignty)。它旨在讓用戶重新掌控自己的數據(Data)和身分(Identity),減少對中心化平台的依賴。 核心特徵: 去中心化(Decentralization):數據存儲在區塊鏈(Blockchain)或去中心化網絡(Decentralized Networks)上,而不是由...