輝達 GPU 去年出貨量達 600 萬顆,單一 Blackwell 伺服器售價高達 300 萬美元且每週出貨 1000 台,稱霸 AI 晶片市場。但這場晶片戰爭正在轉向,Google TPU、AWS Tranium、博通 ASIC 等客製化晶片崛起,分析師預估博通在客製化 ASIC 晶片市場的市占率可達 70-80%。
輝達 GPU 從遊戲卡躍升為 AI 核心晶片,可追溯至 2012 年的 AlexNet。研究團隊首次將輝達 GPU 的平行運算能力用於神經網路訓練,在影像辨識競賽中大幅領先,開啟深度學習時代。GPU 晶片的核心優勢來自數千個並行處理核心,能高效執行矩陣乘法等張量運算,正適合 AI 訓練與推理。
在大型伺服器機架中,72 顆 GPU 晶片可透過 NVLink 技術彙整為如同單一巨型 GPU 的運算單元。輝達不僅向 OpenAI、各國政府與企業供應 GPU 晶片,也直接打造整套伺服器系統。競爭對手 AMD 則依靠 Instinct GPU 晶片與開源軟體生態系加速進展,近期更獲 OpenAI 與 Oracle 支持,AMD GPU 晶片主要使用開源軟體,而 Nvidia GPU 晶片則緊密圍繞 CUDA 進行最佳化。
從 Google、亞馬遜、Meta、微軟到 OpenAI,各大雲端巨頭紛紛投入客製化 ASIC(應用專用積體電路)晶片研發。這些專為單一用途設計的晶片,在未來幾年預計將成為成長速度最快的 AI 晶片類別。隨著大型語言模型步入成熟期,推理需求正快速超越訓練,推理的成本、能耗與穩定度成為雲端平台的痛點,而這正是 ASIC 晶片的主戰場。
與萬用的 GPU 晶片不同,ASIC 如同一把「專用超精密工具」,針對單一類型 AI 工作負載進行硬編碼最佳化,因此速度更快、功耗更低。缺點是靈活性較差,且開發門檻極高,一顆客製晶片的設計成本動輒數億美元,因此只有雲端巨頭能負擔。用於 AI 的客製化 ASIC 晶片成本極其昂貴,至少需要數億美元,但對於大型雲端服務供應商來說,客製化 ASIC 晶片能效更高,而且減少了對輝達的依賴。
Google 是 ASIC 晶片第一個大玩家,率先打造了用於人工智慧加速的客製化專用積體電路,並在 2015 年創造了 Tensor Processing Unit(張量處理器,TPU)這個專有名詞。TPU 晶片促成 Google 於 2017 年發明了 Transformer 架構,成為 ChatGPT、Claude 等 AI 的共同基礎。如今 Google 已發展到第 7 代 TPU Ironwood 晶片,並協助 Anthropic 使用上百萬顆 TPU 訓練 Claude 系列模型。
AWS 在收購 Annapurna Labs 後,全力投入研發自家 AI 晶片。Tranium 與 Inferentia 晶片已成為 AWS 訓練與推理平台的重要支柱。2024 年,Anthropic 在 AWS 北印第安納資料中心以 50 萬顆 Tranium 2 晶片訓練模型,其中甚至完全沒有輝達 GPU 晶片,可見 ASIC 的地位正在抬頭。
博通與 Marvell 等晶片代工設計公司,是超級大型雲端企業的核心戰略夥伴。Google TPU 晶片、Meta 自研加速器,以及 OpenAI 即將問世的 ASIC 晶片,都由博通深度參與。博通幫助建構 Google 的 TPU 和 Meta 的 AI 推理訓練晶片,分析師預估博通在客製化 ASIC 晶片市場的市占率可達 70% 至 80%。
邊緣 AI 晶片也向個人裝置延伸。NPU(神經網路處理器)為專門在裝置上運行邊緣人工智慧而設計的晶片,現已整合在高通 Snapdragon、AMD、英特爾與蘋果 M 系列 SoC 中,用於手機、筆電、智慧家庭、汽車甚至機器人。設備端 AI 將帶來更高的隱私保障、更低延遲與更強的控制性。
GPU 晶片:通用性強適合多種工作負載,但功耗高且成本昂貴,單一機架達 300 萬美元
ASIC 晶片:專用性強速度快功耗低,開發成本數億美元但長期性價比高 30-40%
FPGA/NPU 晶片:可重新配置介於兩者之間,適合邊緣設備與測試階段
無論是輝達 Blackwell 晶片、Google TPU 晶片或 AWS Tranium 晶片,大多數 AI 晶片最終都由台積電代工。這讓 AI 算力供應與全球地緣政治緊密綁定。美國正試圖透過台積電亞利桑那廠與英特爾 18A 製程,將部分晶片製造能力拉回本土。然而,中國企業如華為、阿里巴巴也正積極打造自家 ASIC 晶片,在出口管制下尋求本土替代方案。
111 人気度
108.11K 人気度
64.44K 人気度
184.08K 人気度
6.85K 人気度
チップ戦争白熱化!NVIDIA GPU覇権がGoogleとAmazonに囲まれる
輝達 GPU 去年出貨量達 600 萬顆,單一 Blackwell 伺服器售價高達 300 萬美元且每週出貨 1000 台,稱霸 AI 晶片市場。但這場晶片戰爭正在轉向,Google TPU、AWS Tranium、博通 ASIC 等客製化晶片崛起,分析師預估博通在客製化 ASIC 晶片市場的市占率可達 70-80%。
GPU 從遊戲卡躍升 AI 核心的黄金十年
輝達 GPU 從遊戲卡躍升為 AI 核心晶片,可追溯至 2012 年的 AlexNet。研究團隊首次將輝達 GPU 的平行運算能力用於神經網路訓練,在影像辨識競賽中大幅領先,開啟深度學習時代。GPU 晶片的核心優勢來自數千個並行處理核心,能高效執行矩陣乘法等張量運算,正適合 AI 訓練與推理。
在大型伺服器機架中,72 顆 GPU 晶片可透過 NVLink 技術彙整為如同單一巨型 GPU 的運算單元。輝達不僅向 OpenAI、各國政府與企業供應 GPU 晶片,也直接打造整套伺服器系統。競爭對手 AMD 則依靠 Instinct GPU 晶片與開源軟體生態系加速進展,近期更獲 OpenAI 與 Oracle 支持,AMD GPU 晶片主要使用開源軟體,而 Nvidia GPU 晶片則緊密圍繞 CUDA 進行最佳化。
客製化 ASIC 晶片成為雲端巨頭破局關鍵
從 Google、亞馬遜、Meta、微軟到 OpenAI,各大雲端巨頭紛紛投入客製化 ASIC(應用專用積體電路)晶片研發。這些專為單一用途設計的晶片,在未來幾年預計將成為成長速度最快的 AI 晶片類別。隨著大型語言模型步入成熟期,推理需求正快速超越訓練,推理的成本、能耗與穩定度成為雲端平台的痛點,而這正是 ASIC 晶片的主戰場。
與萬用的 GPU 晶片不同,ASIC 如同一把「專用超精密工具」,針對單一類型 AI 工作負載進行硬編碼最佳化,因此速度更快、功耗更低。缺點是靈活性較差,且開發門檻極高,一顆客製晶片的設計成本動輒數億美元,因此只有雲端巨頭能負擔。用於 AI 的客製化 ASIC 晶片成本極其昂貴,至少需要數億美元,但對於大型雲端服務供應商來說,客製化 ASIC 晶片能效更高,而且減少了對輝達的依賴。
Google 是 ASIC 晶片第一個大玩家,率先打造了用於人工智慧加速的客製化專用積體電路,並在 2015 年創造了 Tensor Processing Unit(張量處理器,TPU)這個專有名詞。TPU 晶片促成 Google 於 2017 年發明了 Transformer 架構,成為 ChatGPT、Claude 等 AI 的共同基礎。如今 Google 已發展到第 7 代 TPU Ironwood 晶片,並協助 Anthropic 使用上百萬顆 TPU 訓練 Claude 系列模型。
AWS 在收購 Annapurna Labs 後,全力投入研發自家 AI 晶片。Tranium 與 Inferentia 晶片已成為 AWS 訓練與推理平台的重要支柱。2024 年,Anthropic 在 AWS 北印第安納資料中心以 50 萬顆 Tranium 2 晶片訓練模型,其中甚至完全沒有輝達 GPU 晶片,可見 ASIC 的地位正在抬頭。
晶片多元化趨勢與成本效益權衡
博通與 Marvell 等晶片代工設計公司,是超級大型雲端企業的核心戰略夥伴。Google TPU 晶片、Meta 自研加速器,以及 OpenAI 即將問世的 ASIC 晶片,都由博通深度參與。博通幫助建構 Google 的 TPU 和 Meta 的 AI 推理訓練晶片,分析師預估博通在客製化 ASIC 晶片市場的市占率可達 70% 至 80%。
邊緣 AI 晶片也向個人裝置延伸。NPU(神經網路處理器)為專門在裝置上運行邊緣人工智慧而設計的晶片,現已整合在高通 Snapdragon、AMD、英特爾與蘋果 M 系列 SoC 中,用於手機、筆電、智慧家庭、汽車甚至機器人。設備端 AI 將帶來更高的隱私保障、更低延遲與更強的控制性。
三大晶片類別對比
GPU 晶片:通用性強適合多種工作負載,但功耗高且成本昂貴,單一機架達 300 萬美元
ASIC 晶片:專用性強速度快功耗低,開發成本數億美元但長期性價比高 30-40%
FPGA/NPU 晶片:可重新配置介於兩者之間,適合邊緣設備與測試階段
台積電掌握晶片供應鏈咽喉
無論是輝達 Blackwell 晶片、Google TPU 晶片或 AWS Tranium 晶片,大多數 AI 晶片最終都由台積電代工。這讓 AI 算力供應與全球地緣政治緊密綁定。美國正試圖透過台積電亞利桑那廠與英特爾 18A 製程,將部分晶片製造能力拉回本土。然而,中國企業如華為、阿里巴巴也正積極打造自家 ASIC 晶片,在出口管制下尋求本土替代方案。