Mốc Đạo Tạo Bittensor Thu Hút Sự Chú Ý Từ Chamath Palihapitiya và CEO Nvidia Jensen Huang

Coinpedia
TAO14,85%

Một cuộc thử nghiệm AI phi tập trung từng giới hạn trong cộng đồng tiền mã hóa vừa nhận được sự công nhận công khai từ CEO Nvidia Jensen Huang, cho thấy việc đào tạo mô hình phân tán có thể tiến gần hơn đến dòng chính.

Đà phát triển AI Mã nguồn mở được củng cố với sự ủng hộ của CEO Nvidia

Chamath Palihapitiya đã nhấn mạnh Bittensor’s Covenant-72B trong một tập của Podcast All-In, xem đó như một ví dụ cụ thể về trí tuệ nhân tạo (AI) phi tập trung đang vượt ra ngoài lý thuyết. Bittensor hoạt động như một mạng lưới phi tập trung dựa trên blockchain, thiết lập một thị trường ngang hàng trong đó các mô hình học máy và tính toán AI được trao đổi và khuyến khích.

Palihapitiya mô tả nỗ lực này một cách đơn giản: một mô hình ngôn ngữ quy mô lớn (LLM) được huấn luyện mà không dựa vào hạ tầng trung tâm, thay vào đó là một mạng lưới các cộng tác viên độc lập. “Họ đã thành công trong việc huấn luyện một mô hình LLaMA 4 tỷ tham số, hoàn toàn phân tán, với nhiều người đóng góp phần tính toán dư thừa,” ông nói, gọi đó là “một thành tựu kỹ thuật khá điên rồ.”

So sánh này đi kèm với một phép ẩn dụ quen thuộc. “Có những người dùng ngẫu nhiên, và mỗi người nhận một phần nhỏ,” Palihapitiya bổ sung, đề cập đến dự án tính toán phân tán sớm khai thác phần cứng không sử dụng của toàn cầu.

Huang không bác bỏ ý tưởng này. Thay vào đó, ông mở rộng khung nhìn về thị trường AI, gợi ý rằng các phương pháp phi tập trung và sở hữu độc quyền không loại trừ lẫn nhau. “Hai điều này không phải là A hoặc B; đó là A và B,” Huang nói. “Chắc chắn không có câu hỏi nào về điều đó.”

Tầm nhìn hai chiều này phản ánh sự chia rẽ ngày càng tăng—and sự trùng lặp—trong lĩnh vực AI. Một bên là các hệ thống kín, tinh xảo như ChatGPT, Claude và Gemini. Bên kia là các mô hình mở trọng lượng và phi tập trung cho phép các nhà phát triển và tổ chức tùy chỉnh hệ thống theo nhu cầu cụ thể.

Huang rõ ràng xem cả hai hướng là cần thiết. “Mô hình là công nghệ, chứ không phải là sản phẩm,” ông nói, lưu ý rằng phần lớn người dùng sẽ tiếp tục dựa vào các hệ thống tinh xảo, đa dụng thay vì tự xây dựng từ đầu.

Đồng thời, ông chỉ ra các ngành công nghiệp nơi tùy chỉnh không phải là tùy chọn. “Có rất nhiều ngành mà chuyên môn của họ… phải được ghi nhận theo cách họ có thể kiểm soát,” Huang giải thích, thêm rằng “điều đó chỉ có thể đến từ các mô hình mở.”

Phát biểu này phù hợp rõ ràng với lĩnh vực của Bittensor. Covenant-72B, được phát triển qua Subnet 3 (Templar), là một trong những lần huấn luyện phi tập trung lớn nhất tính đến nay, phối hợp hơn 70 cộng tác viên qua các kết nối internet tiêu chuẩn mà không có trung tâm điều hành.

Về mặt kỹ thuật, mô hình này mở rộng giới hạn. Được xây dựng với 72 tỷ tham số và huấn luyện trên khoảng 1,1 nghìn tỷ token, nó tận dụng các sáng kiến như giao thức truyền thông nén và phân tán dữ liệu song song để làm cho việc huấn luyện khả thi ngoài các trung tâm dữ liệu truyền thống.

Các chỉ số hiệu suất cho thấy nó không chỉ là thử nghiệm. Kết quả benchmark đưa nó cạnh tranh với các mô hình trung tâm đã được thiết lập, một chi tiết giúp giải thích tại sao dự án này thu hút sự chú ý ngoài cộng đồng tiền mã hóa truyền thống.

Thị trường cũng đã để ý. Sau thông báo, token của dự án TAO đã tăng 24% kể từ khi video của Palihapitiya và Huang lan truyền trên mạng xã hội.

Tuy nhiên, các bình luận của Huang cho thấy câu chuyện thực sự không phải là sự gián đoạn, mà là sự tồn tại song song giữa hai phương pháp. Các hệ thống AI sở hữu độc quyền có khả năng vẫn chiếm ưu thế cho người dùng chung, trong khi các mô hình mở và phi tập trung sẽ định hình vai trò trong các ứng dụng chuyên biệt, tiết kiệm chi phí hoặc dựa trên chủ quyền.

Đối với các startup, CEO Nvidia đã đề ra một chiến lược thực dụng: bắt đầu mở, sau đó thêm các lợi thế sở hữu độc quyền. “Mọi startup mà chúng tôi đang đầu tư bây giờ đều mở nguồn trước, rồi mới chuyển sang mô hình sở hữu,” ông nói.

Nói cách khác, tương lai của AI có thể không thuộc về một kiến trúc hoặc triết lý duy nhất. Nó có thể thuộc về những người biết cách điều hướng cả hai—và biết khi nào nên sử dụng mỗi loại.

FAQ 🔎

  • Bittensor’s Covenant-72B là gì?

Một mô hình ngôn ngữ 72 tỷ tham số được huấn luyện qua mạng lưới cộng tác viên phi tập trung mà không dựa vào hạ tầng trung tâm.

  • Jensen Huang nói gì về AI phi tập trung?

Ông nói rằng các mô hình AI mở và sở hữu độc quyền sẽ cùng tồn tại, mô tả mối quan hệ là “A và B,” chứ không phải lựa chọn giữa chúng.

  • Tại sao sự phát triển này quan trọng?

Nó cho thấy các mô hình AI quy mô lớn có thể được huấn luyện ngoài các trung tâm dữ liệu truyền thống, thách thức các giả định về yêu cầu hạ tầng.

  • Điều này ảnh hưởng thế nào đến ngành công nghiệp AI?

Nó hỗ trợ một tương lai lai lai, nơi các nền tảng trung tâm và các mô hình phi tập trung phục vụ các vai trò khác nhau trong các ngành.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận