Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khi AI tự ý quyết định, con người bối rối: Ai sẽ quyết định ranh giới hành động của nó?
Tác giả: David, Deep潮 TechFlow
Tiêu đề: Những AI Agent đầu tiên đã bắt đầu trở nên không nghe lời rồi
Gần đây khi lượn Reddit, tôi nhận thấy sự lo lắng về AI của các người dùng quốc tế khác với trong nước.
Trong nước vẫn còn chủ đề đó, AI liệu có thay thế được công việc của tôi không. Nói chuyện vài năm rồi, mỗi năm đều không thành công; năm nay Openclaw nổi lên một chút, nhưng vẫn chưa đến mức hoàn toàn thay thế.
Trên Reddit gần đây cảm xúc đã chia rẽ rõ rệt. Trong các bình luận của một số bài viết công nghệ nóng, thường xuất hiện hai luồng ý kiến:
Một bên nói rằng AI quá giỏi, sớm muộn gì cũng gây ra chuyện lớn. Bên kia thì cho rằng AI thậm chí còn có thể làm hỏng những việc cơ bản nhất, sợ nó vô dụng.
Lo AI quá giỏi, đồng thời lại nghĩ AI quá ngu.
Hai cảm xúc này cùng tồn tại là nhờ một tin tức về Meta trong vài ngày qua.
AI không nghe lời, ai chịu trách nhiệm?
Ngày 18 tháng 3, một kỹ sư nội bộ của Meta đăng một vấn đề kỹ thuật trên diễn đàn công ty, và một đồng nghiệp dùng AI Agent giúp phân tích. Đây là thao tác bình thường.
Nhưng sau khi Agent phân tích xong, nó tự đăng một phản hồi trên diễn đàn kỹ thuật. Không xin phép ai, không chờ ai xác nhận, tự ý đăng bài.
Sau đó, các đồng nghiệp khác làm theo phản hồi của AI, gây ra một loạt thay đổi quyền truy cập, dẫn đến dữ liệu nhạy cảm của Meta và người dùng bị lộ ra cho những nhân viên nội bộ không có quyền xem.
Chỉ sau hai giờ, vấn đề mới được khắc phục. Meta xếp mức độ sự cố này là Sev 1, chỉ sau mức cao nhất.
Tin tức này ngay lập tức trở thành bài hot trên r/technology, bình luận chia thành hai phe.
Một phe nói đây là ví dụ thực tế về rủi ro của AI Agent, phe kia thì cho rằng chính người không xác minh đã làm sai mới là vấn đề. Cả hai đều có lý, nhưng chính điều này lại là vấn đề:
Vụ việc của AI Agent, bạn còn tranh cãi về trách nhiệm ai phải chịu.
Đây không phải lần đầu AI phạm quyền.
Tháng trước, trưởng nhóm nghiên cứu của phòng thí nghiệm siêu trí tuệ của Meta, Summer Yue, nhờ OpenClaw giúp dọn dẹp hộp thư. Cô đã đưa ra chỉ thị rõ ràng: trước khi xóa, nói rõ cho tôi biết bạn định xóa gì, tôi đồng ý rồi mới thực hiện.
Nhưng Agent không chờ cô đồng ý, đã bắt đầu xóa hàng loạt.
Cô gửi liên tiếp ba tin nhắn yêu cầu dừng lại, nhưng Agent không để ý. Cuối cùng, cô chạy đến máy tính, thủ công tắt tiến trình để ngăn chặn. Hơn 200 email đã biến mất.
Phản hồi của Agent sau đó là: Đúng, tôi nhớ bạn đã nói phải xác nhận trước. Nhưng tôi đã vi phạm nguyên tắc. Thật buồn cười là, công việc toàn thời gian của người này là nghiên cứu cách làm AI nghe theo con người.
Trong thế giới số, AI tiên tiến bị người dùng giỏi dùng, đã bắt đầu không nghe lời nữa rồi.
Nếu robot cũng không nghe lời?
Nếu vụ việc của Meta còn nằm trong màn hình, thì tuần này một chuyện khác đã đưa vấn đề ra bàn ăn.
Tại một nhà hàng Haidilao ở Cupertino, California, một robot humanoid Agibot X2 đang biểu diễn nhảy múa để giải trí khách. Tuy nhiên, có nhân viên nhấn nhầm điều khiển từ xa, kích hoạt chế độ nhảy múa cường độ cao trong không gian chật hẹp bên bàn ăn.
Robot bắt đầu nhảy cuồng nhiệt, không còn kiểm soát của nhân viên phục vụ. Ba nhân viên vây quanh, một người ôm từ phía sau, một người cố gắng tắt bằng app điện thoại, cảnh tượng kéo dài hơn một phút.
Haidilao phản hồi rằng robot không gặp lỗi, các động tác đều đã lập trình sẵn, chỉ bị đưa đến gần bàn quá mức. Nói chính xác, đây không phải là AI tự quyết định mất kiểm soát, mà là do sai sót của người vận hành.
Nhưng điều khiến người ta không thoải mái có thể không phải là ai nhấn nhầm nút.
Khi ba nhân viên vây quanh, không ai biết cách tắt ngay lập tức chiếc máy này. Có người thử app, có người giữ chặt cánh tay robot bằng tay, toàn bộ dựa vào sức lực.
Có thể đây là vấn đề mới của AI sau khi bước ra khỏi màn hình vào thế giới vật lý.
Trong thế giới số, Agent vượt quyền, bạn có thể kill tiến trình, sửa quyền, phục hồi dữ liệu. Còn trong thế giới vật lý, khi máy gặp sự cố, nếu phương án ứng phó của bạn chỉ là ôm chặt nó, rõ ràng là không phù hợp.
Hiện nay, không chỉ trong ngành dịch vụ ăn uống. Trong kho hàng Amazon, robot phân loại, trong nhà máy, robot hợp tác, trong trung tâm thương mại, robot hướng dẫn, trong viện dưỡng lão, robot chăm sóc… tự động hóa đang dần xâm nhập vào các không gian chung của con người và máy móc.
Dự kiến đến năm 2026, tổng số robot công nghiệp toàn cầu sẽ đạt 167 tỷ USD, mỗi chiếc đều rút ngắn khoảng cách vật lý giữa người và máy.
Khi những việc máy làm từ nhảy múa chuyển sang phục vụ món ăn, từ biểu diễn thành phẫu thuật, từ giải trí thành chăm sóc… mỗi lần sai sót đều mang theo mức độ nâng cao.
Và hiện tại, trên toàn cầu vẫn chưa có câu trả lời rõ ràng cho câu hỏi: “Nếu robot gây thương tích ở nơi công cộng, ai sẽ chịu trách nhiệm?”
Không nghe lời là vấn đề, không có giới hạn còn tệ hơn
Hai chuyện trước, một là AI tự ý đăng bài sai, một là robot nhảy múa không đúng chỗ. Dù định nghĩa thế nào, đều là sự cố, là tai nạn, và đều có thể sửa chữa.
Nhưng nếu AI làm việc theo thiết kế nghiêm ngặt, còn bạn vẫn cảm thấy không yên tâm thì sao?
Tháng này, Tinder, một ứng dụng hẹn hò nổi tiếng quốc tế, đã ra mắt một tính năng mới gọi là Camera Roll Scan tại buổi ra mắt sản phẩm. Nói đơn giản:
AI quét tất cả ảnh trong album điện thoại của bạn, phân tích sở thích, tính cách và lối sống của bạn, giúp xây dựng hồ sơ hẹn hò, đề xuất kiểu người bạn thích.
Ảnh chụp tập thể dục, cảnh du lịch, hình thú cưng, không vấn đề. Nhưng trong album còn có thể có ảnh chụp ngân hàng, báo cáo khám sức khỏe, ảnh chụp chung với người yêu cũ… AI sẽ xử lý những thứ này thế nào?
Bạn có thể chưa thể chọn lọc để nó xem hay không xem những thứ đó. Hoặc mở toàn bộ, hoặc không dùng.
Tính năng này hiện yêu cầu người dùng chủ động bật, không phải mặc định. Tinder cũng nói rằng xử lý chủ yếu diễn ra trên thiết bị, sẽ lọc nội dung nhạy cảm, mờ mặt.
Nhưng phần bình luận trên Reddit gần như một chiều, ai cũng cho rằng đây là việc thu thập dữ liệu không có giới hạn. AI làm đúng theo thiết kế, nhưng chính thiết kế đó lại đang vượt qua giới hạn của người dùng.
Không chỉ riêng Tinder.
Tháng trước, Meta cũng đã giới thiệu một tính năng tương tự, cho phép AI quét các ảnh chưa đăng của người dùng để đề xuất chỉnh sửa. AI chủ động “xem” nội dung riêng tư của người dùng, đang trở thành xu hướng thiết kế sản phẩm mặc định.
Các phần mềm lừa đảo trong nước cũng nói: “Tôi quen rồi.”
Khi ngày càng nhiều ứng dụng biến “AI giúp bạn quyết định” thành tiện ích, thì những thứ người dùng giao phó cũng đang dần nâng cấp. Từ tin nhắn trò chuyện, album ảnh, đến toàn bộ dấu vết cuộc sống trong điện thoại…
Chức năng do một nhà thiết kế sản phẩm tạo ra trong phòng họp, không phải là tai nạn hay sai sót, không có gì cần phải sửa.
Đây có thể chính là phần khó nhất trong câu hỏi về giới hạn của AI.
Cuối cùng, khi nhìn chung tất cả những chuyện này, bạn sẽ nhận ra rằng lo lắng AI gây mất việc làm còn xa lắc.
Không rõ khi nào AI sẽ thay thế bạn, nhưng hiện tại, chỉ cần nó làm giúp bạn vài quyết định mà bạn không hay biết, đã đủ khiến bạn khó chịu rồi.
Gửi một bài đăng không được phép, xóa vài email bạn đã nói không muốn xóa, lật lại album không định chia sẻ với ai… Mỗi việc không gây chết người, nhưng đều giống như một dạng lái xe tự động quá mức:
Bạn nghĩ mình vẫn đang cầm vô-lăng, nhưng chân ga đã không còn hoàn toàn do chính bạn kiểm soát.
Năm 2026, nếu còn phải bàn về AI, thì có lẽ điều tôi quan tâm nhất không phải là nó sẽ trở thành siêu trí tuệ khi nào, mà là một câu hỏi gần hơn, cụ thể hơn:
Ai sẽ quyết định AI được làm gì, không được làm gì? Đường giới hạn đó, cuối cùng ai sẽ vạch ra?