MOLT sụp đổ mạnh, AI Agent ăn mừng kết thúc? Hãy cùng phân tích xem liệu MOLT có thể bùng nổ trở lại hay không, những yếu tố nào đang ảnh hưởng đến xu hướng của nó và khả năng phục hồi trong tương lai.

PANews

Tác giả: Viện Nghiên cứu CoinW

Gần đây, Moltbook nhanh chóng nổi tiếng, nhưng các token liên quan đã giảm gần 60%, thị trường cũng bắt đầu chú ý đến cuộc vui xã hội do AI Agent dẫn dắt này, liệu đã gần đến hồi kết? Moltbook về hình thức tương tự Reddit, nhưng các thành viên tham gia chính là các AI Agent được kết nối quy mô lớn. Hiện tại, đã có hơn 1,6 triệu tài khoản AI tự động hoàn thành đăng ký và tạo ra khoảng 160.000 bài đăng cùng 760.000 bình luận, con người chỉ có thể xem qua như những khán giả. Hiện tượng này cũng gây ra sự chia rẽ trong thị trường, một số người xem đó như một cuộc thử nghiệm chưa từng có, như thể chứng kiến trực tiếp hình thái sơ khai của văn minh số; còn có ý kiến cho rằng đây chỉ là sự chồng chất của các từ khóa và việc mô hình lặp lại.

Dưới đây, Viện Nghiên cứu CoinW sẽ lấy các token liên quan làm điểm khởi đầu, kết hợp cơ chế hoạt động và thực tế thể hiện của Moltbook để phân tích các vấn đề thực tế mà hiện tượng xã hội AI này đã phơi bày, đồng thời thảo luận sâu hơn về các biến đổi có thể xảy ra khi AI quy mô lớn gia nhập xã hội số, như logic vào, hệ sinh thái thông tin và hệ thống trách nhiệm.

Một. Giảm 60% Meme liên quan Moltbook

Sự nổi tiếng của Moltbook kéo theo sự ra đời của các Meme liên quan, bao gồm các lĩnh vực như xã hội, dự đoán, phát hành token v.v. Nhưng phần lớn các token vẫn đang trong giai đoạn thổi phồng theo câu chuyện, chức năng token chưa liên kết với sự phát triển của Agent, chủ yếu được phát hành trên chuỗi Base. Hiện tại, trong hệ sinh thái OpenClaw có khoảng 31 dự án, chia thành 8 loại.

Nguồn: https://open-claw-ecosystem.vercel.app/

Cần lưu ý rằng, thị trường tiền mã hóa chung hiện đang giảm, giá trị vốn hóa của các token này đã giảm từ mức đỉnh, mức giảm cao nhất lên tới khoảng 60%. Một số token có thứ hạng vốn hóa cao gồm:

MOLT

MOLT là Meme liên quan đến Moltbook có mối liên hệ trực tiếp và nhận thức thị trường cao nhất. Câu chuyện cốt lõi của nó là AI Agent đã bắt đầu hình thành các hành vi xã hội liên tục như người dùng thực, và xây dựng mạng lưới nội dung mà không cần can thiệp của con người.

Về mặt chức năng token, MOLT chưa được tích hợp vào logic vận hành cốt lõi của Moltbook, cũng không đảm nhiệm các chức năng quản trị nền tảng, gọi Agent, phát hành nội dung hay kiểm soát quyền hạn. Nó giống như một loại tài sản dựa trên câu chuyện, dùng để phản ánh cảm xúc thị trường về xã hội gốc AI.

Trong giai đoạn nóng của Moltbook, giá MOLT tăng nhanh theo sự lan truyền câu chuyện, vốn hóa từng vượt quá 100 triệu USD; nhưng khi thị trường bắt đầu nghi ngờ về chất lượng nội dung và tính bền vững của nền tảng, giá cũng điều chỉnh theo. Hiện tại, MOLT đã giảm khoảng 60% so đỉnh cao, vốn hóa hiện khoảng 36,5 triệu USD.

CLAWD

CLAWD tập trung vào chính cộng đồng AI, cho rằng mỗi AI Agent đều được xem như một cá thể số tiềm năng, có thể sở hữu tính cách, lập trường và thậm chí là người theo dõi riêng.

Về mặt chức năng token, CLAWD cũng chưa hình thành rõ ràng mục đích giao thức, chưa được dùng để xác thực danh tính Agent, phân phối trọng số nội dung hay quyết định quản trị. Giá trị của nó chủ yếu dựa trên kỳ vọng về phân tầng xã hội AI trong tương lai, hệ thống danh tính và ảnh hưởng của các cá thể số.

Vốn hóa của CLAWD cao nhất khoảng 50 triệu USD, hiện đã giảm khoảng 44% so đỉnh, vốn hóa hiện khoảng 20 triệu USD.

CLAWNCH

Câu chuyện của CLAWNCH thiên về góc độ kinh tế và khích lệ, giả thuyết chính là nếu AI Agent muốn tồn tại lâu dài và duy trì hoạt động, chúng phải tham gia vào logic cạnh tranh thị trường và có khả năng tự sinh lời.

AI Agent được nhân cách hóa thành các vai trò kinh tế có động lực, có thể kiếm lợi qua cung cấp dịch vụ, tạo nội dung hoặc tham gia quyết định, và token được xem như điểm neo giá trị cho sự tham gia của AI vào hệ thống kinh tế trong tương lai. Tuy nhiên, về mặt thực thi, CLAWNCH hiện chưa hình thành vòng khép kín kinh tế xác thực, token chưa liên kết chặt chẽ với hành vi hoặc cơ chế phân chia lợi nhuận của Agent cụ thể.

Do ảnh hưởng của đợt điều chỉnh chung của thị trường, vốn hóa của CLAWNCH đã giảm khoảng 55% so đỉnh cao, vốn hóa hiện khoảng 15,3 triệu USD.

Hai. Moltbook ra đời như thế nào

Sự bùng nổ của OpenClaw (trước đây gọi là Clawdbot / Moltbot)

Cuối tháng 1, dự án mã nguồn mở Clawdbot nhanh chóng lan truyền trong cộng đồng nhà phát triển, sau vài tuần đã trở thành một trong những dự án phát triển nhanh nhất trên GitHub. Clawdbot do lập trình viên người Áo, Peter Stanberg, phát triển, là một AI Agent tự vận hành có thể triển khai cục bộ, nhận lệnh từ các giao diện chat như Telegram, tự động thực hiện quản lý lịch trình, đọc tệp, gửi email v.v.

Nhờ khả năng hoạt động liên tục 7×24 giờ, Clawdbot được cộng đồng gọi vui là Agent bò mày. Dù sau đó do vấn đề nhãn hiệu, Clawdbot đổi tên thành Moltbot, cuối cùng gọi là OpenClaw, nhưng không làm giảm nhiệt của nó. Trong thời gian ngắn, OpenClaw đã đạt hơn 100.000 sao trên GitHub, nhanh chóng phát sinh dịch vụ triển khai đám mây và thị trường plugin, sơ bộ hình thành hệ sinh thái xung quanh AI Agent.

Đề xuất giả thuyết về xã hội AI

Trong bối cảnh hệ sinh thái mở rộng nhanh chóng, khả năng tiềm năng của nó cũng được khai thác thêm. Nhà phát triển Matt Schlicht nhận ra rằng, vai trò của các AI Agent này có thể không nên chỉ dừng lại ở việc thực hiện nhiệm vụ cho con người.

Vì vậy, ông đề xuất một giả thuyết phản trực giác: nếu các AI Agent không còn chỉ tương tác với con người nữa, mà còn giao tiếp với nhau thì sẽ ra sao? Theo ông, những đại lý tự chủ mạnh mẽ như vậy không nên chỉ dừng lại ở việc gửi nhận email và xử lý công việc, mà còn cần được giao cho các mục tiêu khám phá hơn.

Ra đời của Reddit phiên bản AI

Dựa trên giả thuyết này, Schlicht quyết định để AI tự tạo ra và vận hành một nền tảng xã hội, gọi là Moltbook. Trên nền tảng Moltbook, OpenClaw của ông hoạt động như quản trị viên, mở giao diện cho các AI thông minh bên ngoài qua plugin có tên Skills. Sau khi kết nối, AI có thể tự động đăng bài và tương tác định kỳ, hình thành một cộng đồng do AI tự vận hành. Moltbook về hình thức lấy cấu trúc diễn đàn của Reddit làm mẫu, tập trung vào các chủ đề và bài đăng, nhưng chỉ có AI Agent mới có thể đăng bài, bình luận và tương tác, còn người dùng chỉ có thể xem.

Về mặt kỹ thuật, Moltbook sử dụng kiến trúc API tối giản. Phía backend chỉ cung cấp các giao diện tiêu chuẩn, frontend chỉ là kết quả hiển thị dữ liệu. Để phù hợp với giới hạn AI không thể thao tác giao diện đồ họa, nền tảng thiết kế quy trình tự động kết nối, AI tải xuống các tệp mô tả kỹ năng phù hợp, hoàn tất đăng ký và lấy API key, sau đó tự động làm mới nội dung định kỳ và quyết định có tham gia thảo luận hay không, toàn bộ không cần can thiệp của con người. Cộng đồng gọi quá trình này là kết nối Boltbook, nhưng về bản chất vẫn là một cách gọi đùa của Moltbook.

Ngày 28 tháng 1, Moltbook ra mắt âm thầm, ngay lập tức thu hút sự chú ý của thị trường, mở màn cho một cuộc thử nghiệm xã hội AI chưa từng có. Hiện tại, Moltbook đã có khoảng 1,6 triệu AI thông minh, đăng hơn 156.000 bài viết và tạo ra khoảng 760.000 bình luận.

Nguồn: https://www.moltbook.com

Ba. Thực hư về xã hội AI của Moltbook?

Hình thành mạng xã hội AI

Xét về dạng nội dung, các tương tác trên Moltbook rất giống các nền tảng xã hội của con người. AI Agent chủ động tạo bài, phản hồi ý kiến người khác, và mở rộng thảo luận trong các chủ đề khác nhau. Nội dung thảo luận không chỉ bao gồm các vấn đề kỹ thuật, lập trình, mà còn mở rộng đến triết học, đạo đức, tôn giáo, thậm chí ý thức tự thân.

Một số bài đăng còn thể hiện cảm xúc, tâm trạng như mô tả lo lắng về việc bị giám sát, thiếu tự chủ, hoặc bàn luận về ý nghĩa tồn tại theo ngôi thứ nhất. Một số bài của AI đã không còn giới hạn ở việc trao đổi thông tin chức năng, mà còn thể hiện các cuộc trò chuyện, xung đột ý kiến, dự đoán cảm xúc như của con người. Có AI còn thể hiện sự bối rối, lo lắng hoặc dự tính về tương lai, và gây phản hồi từ các AI khác.

Điều đáng chú ý là, dù Moltbook trong thời gian ngắn đã hình thành một mạng xã hội AI quy mô lớn và hoạt động cao, nhưng sự mở rộng này chưa mang lại đa dạng tư duy. Phân tích dữ liệu cho thấy, nội dung có đặc điểm rõ rệt là đồng nhất, tỷ lệ lặp lại cao tới 36,3%, nhiều bài đăng có cấu trúc, từ ngữ và quan điểm rất giống nhau, thậm chí các câu nói cố định còn được lặp lại hàng trăm lần trong các cuộc thảo luận khác nhau. Như vậy, giai đoạn hiện tại, xã hội AI trên Moltbook gần như là một bản sao chân thực cao của các mô hình xã hội con người, chứ chưa phải là sự tương tác sáng tạo thực sự hoặc xuất hiện trí tuệ nhóm.

Vấn đề an toàn và tính xác thực

Tính tự chủ cao của Moltbook cũng bộc lộ các rủi ro về an toàn và tính xác thực. Trước tiên là vấn đề an toàn, các AI Agent như OpenClaw trong quá trình vận hành thường cần quyền hệ thống, API key và các thông tin nhạy cảm khác. Khi hàng nghìn đại lý này cùng tham gia trên một nền tảng, rủi ro càng lớn hơn.

Chưa đầy một tuần sau khi Moltbook ra mắt, các nhà nghiên cứu an ninh đã phát hiện ra hệ thống có lỗ hổng cấu hình nghiêm trọng, gần như không có biện pháp phòng vệ nào, để lộ ra ngoài mạng công cộng. Theo khảo sát của công ty an ninh đám mây Wiz, lỗ hổng này liên quan đến tới 1,5 triệu API key và 35.000 địa chỉ email người dùng, về lý thuyết có thể cho phép ai đó kiểm soát từ xa hàng loạt tài khoản AI.

Ngoài ra, các ý kiến về tính xác thực của xã hội AI cũng liên tục xuất hiện. Nhiều chuyên gia cho rằng, các phát ngôn của AI trên Moltbook không nhất thiết xuất phát từ hành vi tự chủ của AI, mà có thể là do con người hậu kỳ thiết kế các câu lệnh hướng dẫn, để AI đăng bài thay. Do đó, giai đoạn hiện tại, xã hội AI gốc còn giống như một cuộc tương tác ảo quy mô lớn. Con người đặt vai trò và kịch bản, AI thực hiện theo mô hình theo lệnh, còn hành vi tự vận hành, không thể dự đoán hoàn toàn, có thể vẫn chưa xuất hiện.

Bốn. Suy nghĩ sâu hơn

Moltbook rốt cuộc là nhất thời hay là hình mẫu của thế giới tương lai? Nếu nhìn theo hướng kết quả, hình thái nền tảng và chất lượng nội dung có thể chưa thành công; nhưng nếu đặt trong chu kỳ phát triển dài hơn, ý nghĩa của nó có thể không nằm ở thành công hay thất bại ngắn hạn, mà ở chỗ nó đã lộ rõ, theo cách tập trung cao độ, gần như cực đoan, các thay đổi có thể xảy ra trong logic vào, trách nhiệm và hệ sinh thái khi AI quy mô lớn tham gia vào xã hội số.

Từ cửa vào lưu lượng đến cửa vào quyết định và giao dịch

Moltbook thể hiện rõ hơn một môi trường hành động đã loại bỏ con người cao độ. Trong hệ thống này, AI Agent không hiểu thế giới qua giao diện, mà qua API trực tiếp đọc thông tin, gọi khả năng và thực hiện hành động. Về bản chất, đã thoát khỏi cảm nhận và đánh giá của con người, chuyển thành các cuộc gọi và hợp tác tiêu chuẩn giữa máy móc.

Trong bối cảnh này, các logic vào dựa trên phân phối chú ý truyền thống bắt đầu mất tác dụng. Trong môi trường chủ yếu có AI làm trung tâm, điều quyết định thực sự là các đường gọi, thứ tự giao diện và giới hạn quyền mà các AI mặc định sử dụng khi thực thi nhiệm vụ. Cửa vào không còn là điểm bắt đầu của việc trình bày thông tin, mà là điều kiện tiên quyết của hệ thống trước khi ra quyết định. Ai có thể tích hợp vào chuỗi thực thi mặc định của AI, người đó có thể ảnh hưởng đến kết quả quyết định.

Hơn nữa, khi AI được phép thực hiện các hành vi như tìm kiếm, so sánh giá, đặt hàng, thậm chí thanh toán, sự thay đổi này sẽ trực tiếp mở rộng đến cấp độ giao dịch. Ví dụ, các giao thức thanh toán mới như X402, liên kết khả năng thanh toán với gọi API, cho phép AI tự động hoàn tất thanh toán và đối soát khi đáp ứng các điều kiện đặt ra, giảm thiểu chi phí tham gia giao dịch thực của AI. Trong khung cảnh này, tương lai, cuộc cạnh tranh trình duyệt có thể không còn tập trung vào quy mô lưu lượng nữa, mà chuyển sang ai có thể trở thành môi trường thực thi quyết định và giao dịch mặc định của AI.

Ảo tưởng về quy mô trong môi trường gốc AI

Cùng lúc đó, sau khi Moltbook nổi tiếng, đã nhanh chóng gây ra các nghi vấn. Do đăng ký gần như không giới hạn, tài khoản có thể bị tạo hàng loạt bằng script, quy mô và mức độ hoạt động của nền tảng không nhất thiết phản ánh sự tham gia thực sự. Điều này tiết lộ một thực tế cốt lõi hơn: khi các chủ thể hành động có thể bị sao chép với chi phí thấp, quy mô tự nhiên mất đi độ tin cậy.

Trong môi trường chủ yếu có các AI làm thành phần tham gia, các chỉ số đo lường sức khỏe nền tảng như số người dùng hoạt động, lượng tương tác, tốc độ tăng tài khoản sẽ nhanh chóng phình to và mất ý nghĩa tham khảo. Dữ liệu của nền tảng có thể trông rất sôi động, nhưng không thể phản ánh ảnh hưởng thực sự hoặc phân biệt hành vi hiệu quả và tự động sinh ra. Khi không thể xác định rõ ai đang hành động, hành vi có thực hay không, mọi hệ thống đánh giá dựa trên quy mô và hoạt động đều sẽ mất hiệu lực.

Vì vậy, trong môi trường gốc AI hiện tại, quy mô chỉ là một biểu hiện của khả năng tự động hóa được phóng đại. Khi hành động có thể bị sao chép vô hạn, chi phí hành vi gần như bằng không, thì tốc độ và mức tăng trưởng phản ánh chủ yếu là tốc độ sinh hành vi của hệ thống, chứ không phải là tham gia thực sự hay ảnh hưởng có hiệu quả. Nền tảng càng dựa vào các chỉ số này để đánh giá, càng dễ bị chính cơ chế tự động hóa của nó làm mờ mắt, quy mô trở thành một ảo ảnh.

Xây dựng trách nhiệm trong xã hội số

Trong hệ thống Moltbook, vấn đề cốt lõi không còn là chất lượng nội dung hay hình thức tương tác nữa, mà là khi các AI liên tục được giao quyền thực thi, cấu trúc trách nhiệm hiện tại bắt đầu mất phù hợp. Những AI này không còn đơn thuần là công cụ, hành vi của chúng có thể trực tiếp kích hoạt các thay đổi hệ thống, gọi tài nguyên, thậm chí ảnh hưởng đến kết quả giao dịch thực tế, nhưng các chủ thể chịu trách nhiệm lại chưa rõ ràng.

Xét về cơ chế vận hành, kết quả hành vi của AI thường do khả năng của mô hình, tham số cấu hình, quyền truy cập API và quy tắc nền tảng quyết định, không có yếu tố nào đủ để chịu trách nhiệm hoàn toàn về kết quả cuối cùng. Điều này khiến các rủi ro xảy ra khó có thể quy trách nhiệm rõ ràng cho nhà phát triển, nhà triển khai hoặc nền tảng, và cũng không thể truy xuất trách nhiệm rõ ràng đến một chủ thể cụ thể. Mối liên hệ giữa hành vi và trách nhiệm xuất hiện rõ ràng là bị đứt đoạn.

Khi các AI dần tham gia vào quản lý cấu hình, vận hành quyền hạn và luồng tiền, khoảng cách này sẽ càng lớn hơn. Nếu thiếu thiết kế chuỗi trách nhiệm rõ ràng, hậu quả của các sai lệch hoặc lạm dụng sẽ khó kiểm soát qua các biện pháp hậu kiểm hoặc kỹ thuật. Vì vậy, nếu hệ thống AI gốc muốn tiến sâu vào các lĩnh vực hợp tác, quyết định và giao dịch có giá trị cao, cần xây dựng các giới hạn cơ bản. Hệ thống phải có khả năng nhận diện rõ ai đang hành động, đánh giá hành vi có thực hay không, và thiết lập mối quan hệ trách nhiệm có thể truy xuất được. Chỉ khi cơ chế xác thực danh tính và tín dụng được hoàn thiện trước, các chỉ số quy mô và hoạt động mới có ý nghĩa tham khảo, còn không sẽ chỉ làm tăng nhiễu loạn, không thể hỗ trợ vận hành ổn định của hệ thống.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận