Chiến lược TPU của Google định hình lại bối cảnh chip AI, thách thức vị thế thống trị thị trường của Nvidia

Các động thái cạnh tranh trong lĩnh vực tăng tốc AI đang thay đổi một cách đáng kể. Meta Platforms được cho là đang tiến hành đàm phán quan trọng với Google để triển khai các đơn vị xử lý tensor (TPUs) trên các trung tâm dữ liệu của mình bắt đầu từ năm 2027, với khả năng truy cập dựa trên đám mây sớm nhất là năm 2025. Sự phát triển này đánh dấu một bước ngoặt trong chiến lược mua sắm phần cứng của các tập đoàn công nghệ lớn, đồng thời gây áp lực lên cổ phiếu Nvidia trong khi nâng cao niềm tin của nhà đầu tư vào công nghệ chip của Google.

Phản ứng thị trường và biến động cổ phiếu

Vị thế cổ phần của Nvidia đã yếu đi sau báo cáo của The Information, với cổ phiếu giảm 2,7% trong phiên giao dịch sau giờ làm việc. Ngược lại, Alphabet—công ty mẹ của Google—đã tăng 2,7%, dựa trên đà tăng trưởng do tâm lý tích cực xung quanh mô hình AI Gemini của họ. Sự phân kỳ này phản ánh niềm tin ngày càng tăng của các nhà đầu tư tổ chức rằng các lựa chọn thay thế khả thi cho dòng GPU thống trị của Nvidia cuối cùng đang chiếm lĩnh trong các kịch bản triển khai thực tế.

Danh mục chip mở rộng của Google

Google đã chứng minh khả năng của TPU thông qua thỏa thuận với startup AI Anthropic để cung cấp lên tới 1 triệu chip—một bước xác nhận mang tính đột phá vượt ra ngoài hệ thống độc quyền của Google. Theo nhà phân tích Jay Goldberg của Seaport, thỏa thuận này thể hiện “sự xác nhận thực sự mạnh mẽ” về kiến trúc chip của Google, thúc đẩy sự quan tâm rộng rãi trong ngành đối với TPU như một nguồn cung cấp thứ cấp.

Các nhà phân tích của Bloomberg Intelligence, Mandeep Singh và Robert Biggar, cho rằng khả năng Google mở rộng danh mục chip phản ánh một xu hướng lớn hơn: các nhà phát triển AI bên thứ ba ngày càng thoải mái khi xem Google như một nhà cung cấp thay thế đáng tin cậy cho khả năng xử lý inference. Với dự kiến chi tiêu vốn của Meta vào năm 2026 đạt ít nhất $100 tỷ đô la, các nhà phân tích ước tính khoảng 40–50 tỷ đô la trong số đó có thể chảy vào hạ tầng inference, có khả năng thúc đẩy tăng trưởng doanh thu của Google Cloud.

Phân biệt kỹ thuật và tác động chuỗi cung ứng

TPUs đại diện cho một phương pháp kỹ thuật hoàn toàn khác so với GPU. Trong khi các bộ xử lý đồ họa của Nvidia phát triển từ các ứng dụng chơi game và đồ họa để chiếm lĩnh phân khúc đào tạo AI, các chip tensor của Google là các mạch tích hợp chuyên dụng dành riêng cho AI và học máy. Sự chuyên môn hóa này phản ánh hơn một thập kỷ tối ưu hóa thông qua việc triển khai trong các sản phẩm AI của Google, cho phép công ty đồng bộ hóa các cải tiến phần cứng và phần mềm theo từng bước.

Các cuộc đàm phán của Meta cũng thúc đẩy các nhà cung cấp upstream tăng trưởng. IsuPetasys của Hàn Quốc—nhà cung cấp bo mạch đa lớp cho Google—đã tăng 18%, trong khi MediaTek của Đài Loan tăng 4,8%. Những biến động này cho thấy sự tự tin của chuỗi cung ứng vào nhu cầu chip của Google duy trì bền vững.

Vị thế cạnh tranh dài hạn

Một mối quan hệ hợp tác chính thức với Meta sẽ giúp Google trở thành một đối thủ hợp pháp trong cuộc đua về hạ tầng AI, mặc dù thành công trên thị trường cuối cùng phụ thuộc vào khả năng duy trì hiệu suất và lợi thế về hiệu quả năng lượng. Khi các công ty toàn cầu ngày càng đa dạng hóa danh mục đầu tư để giảm phụ thuộc vào nguồn cung duy nhất từ Nvidia, TPU đang ngày càng được ưa chuộng cả về khả năng kỹ thuật lẫn chiến lược. Thị trường cạnh tranh rõ ràng đã thay đổi không thể phủ nhận.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim