👀 家人們,每天看行情、刷大佬觀點,卻從來不開口說兩句?你的觀點可能比你想的更有價值!
廣場新人 & 回歸福利正式上線!不管你是第一次發帖還是久違回歸,我們都直接送你獎勵!🎁
每月 $20,000 獎金等你來領!
📅 活動時間: 長期有效(月底結算)
💎 參與方式:
用戶需爲首次發帖的新用戶或一個月未發帖的回歸用戶。
發帖時必須帶上話題標籤: #我在广场发首帖 。
內容不限:幣圈新聞、行情分析、曬單吐槽、幣種推薦皆可。
💰 獎勵機制:
必得獎:發帖體驗券
每位有效發帖用戶都可獲得 $50 倉位體驗券。(注:每月獎池上限 $20,000,先到先得!如果大家太熱情,我們會繼續加碼!)
進階獎:發帖雙王爭霸
月度發帖王: 當月發帖數量最多的用戶,額外獎勵 50U。
月度互動王: 當月帖子互動量(點讚+評論+轉發+分享)最高的用戶,額外獎勵 50U。
📝 發帖要求:
帖子字數需 大於30字,拒絕純表情或無意義字符。
內容需積極健康,符合社區規範,嚴禁廣告引流及違規內容。
💡 你的觀點可能會啓發無數人,你的第一次分享也許就是成爲“廣場大V”的起點,現在就開始廣場創作之旅吧!
晶片戰爭白熱化!輝達 GPU 霸權遭 Google 和亞馬遜圍剿
輝達 GPU 去年出貨量達 600 萬顆,單一 Blackwell 伺服器售價高達 300 萬美元且每週出貨 1000 台,稱霸 AI 晶片市場。但這場晶片戰爭正在轉向,Google TPU、AWS Tranium、博通 ASIC 等客製化晶片崛起,分析師預估博通在客製化 ASIC 晶片市場的市占率可達 70-80%。
GPU 從遊戲卡躍升 AI 核心的黃金十年
輝達 GPU 從遊戲卡躍升為 AI 核心晶片,可追溯至 2012 年的 AlexNet。研究團隊首次將輝達 GPU 的平行運算能力用於神經網路訓練,在影像辨識競賽中大幅領先,開啟深度學習時代。GPU 晶片的核心優勢來自數千個並行處理核心,能高效執行矩陣乘法等張量運算,正適合 AI 訓練與推理。
在大型伺服器機架中,72 顆 GPU 晶片可透過 NVLink 技術彙整為如同單一巨型 GPU 的運算單元。輝達不僅向 OpenAI、各國政府與企業供應 GPU 晶片,也直接打造整套伺服器系統。競爭對手 AMD 則依靠 Instinct GPU 晶片與開源軟體生態系加速進展,近期更獲 OpenAI 與 Oracle 支持,AMD GPU 晶片主要使用開源軟體,而 Nvidia GPU 晶片則緊密圍繞 CUDA 進行最佳化。
客製化 ASIC 晶片成為雲端巨頭破局關鍵
從 Google、亞馬遜、Meta、微軟到 OpenAI,各大雲端巨頭紛紛投入客製化 ASIC(應用專用積體電路)晶片研發。這些專為單一用途設計的晶片,在未來幾年預計將成為成長速度最快的 AI 晶片類別。隨著大型語言模型步入成熟期,推理需求正快速超越訓練,推理的成本、能耗與穩定度成為雲端平台的痛點,而這正是 ASIC 晶片的主戰場。
與萬用的 GPU 晶片不同,ASIC 如同一把「專用超精密工具」,針對單一類型 AI 工作負載進行硬編碼最佳化,因此速度更快、功耗更低。缺點是靈活性較差,且開發門檻極高,一顆客製晶片的設計成本動輒數億美元,因此只有雲端巨頭能負擔。用於 AI 的客製化 ASIC 晶片成本極其昂貴,至少需要數億美元,但對於大型雲端服務供應商來說,客製化 ASIC 晶片能效更高,而且減少了對輝達的依賴。
Google 是 ASIC 晶片第一個大玩家,率先打造了用於人工智慧加速的客製化專用積體電路,並在 2015 年創造了 Tensor Processing Unit(張量處理器,TPU)這個專有名詞。TPU 晶片促成 Google 於 2017 年發明了 Transformer 架構,成為 ChatGPT、Claude 等 AI 的共同基礎。如今 Google 已發展到第 7 代 TPU Ironwood 晶片,並協助 Anthropic 使用上百萬顆 TPU 訓練 Claude 系列模型。
AWS 在收購 Annapurna Labs 後,全力投入研發自家 AI 晶片。Tranium 與 Inferentia 晶片已成為 AWS 訓練與推理平台的重要支柱。2024 年,Anthropic 在 AWS 北印第安納資料中心以 50 萬顆 Tranium 2 晶片訓練模型,其中甚至完全沒有輝達 GPU 晶片,可見 ASIC 的地位正在抬頭。
晶片多元化趨勢與成本效益權衡
博通與 Marvell 等晶片代工設計公司,是超級大型雲端企業的核心戰略夥伴。Google TPU 晶片、Meta 自研加速器,以及 OpenAI 即將問世的 ASIC 晶片,都由博通深度參與。博通幫助建構 Google 的 TPU 和 Meta 的 AI 推理訓練晶片,分析師預估博通在客製化 ASIC 晶片市場的市占率可達 70% 至 80%。
邊緣 AI 晶片也向個人裝置延伸。NPU(神經網路處理器)為專門在裝置上運行邊緣人工智慧而設計的晶片,現已整合在高通 Snapdragon、AMD、英特爾與蘋果 M 系列 SoC 中,用於手機、筆電、智慧家庭、汽車甚至機器人。設備端 AI 將帶來更高的隱私保障、更低延遲與更強的控制性。
三大晶片類別對比
GPU 晶片:通用性強適合多種工作負載,但功耗高且成本昂貴,單一機架達 300 萬美元
ASIC 晶片:專用性強速度快功耗低,開發成本數億美元但長期性價比高 30-40%
FPGA/NPU 晶片:可重新配置介於兩者之間,適合邊緣設備與測試階段
台積電掌握晶片供應鏈咽喉
無論是輝達 Blackwell 晶片、Google TPU 晶片或 AWS Tranium 晶片,大多數 AI 晶片最終都由台積電代工。這讓 AI 算力供應與全球地緣政治緊密綁定。美國正試圖透過台積電亞利桑那廠與英特爾 18A 製程,將部分晶片製造能力拉回本土。然而,中國企業如華為、阿里巴巴也正積極打造自家 ASIC 晶片,在出口管制下尋求本土替代方案。