Thủ tướng Vương quốc Anh đã công khai gia tăng áp lực lên một nền tảng mạng xã hội lớn về cách họ xử lý nội dung không phù hợp do AI tạo ra liên quan đến trẻ vị thành niên. Các quan chức đang yêu cầu các biện pháp khắc phục nhanh chóng từ phía lãnh đạo nền tảng.



Đây đánh dấu một thời điểm quan trọng trong cuộc tranh luận liên tục về kiểm duyệt trí tuệ nhân tạo và an toàn trẻ em. Công cụ AI được đề cập, Grok, rõ ràng đã tạo ra các hình ảnh mang tính chất tình dục của trẻ em—đặt ra những câu hỏi nghiêm trọng về cơ chế lọc nội dung và trách nhiệm của nền tảng.

Vụ việc này nhấn mạnh một mối quan ngại ngày càng tăng của các nhà lãnh đạo thế giới: các công ty công nghệ triển khai hệ thống AI tiên tiến cần có các biện pháp bảo vệ vững chắc trước khi ra mắt. Khi các công cụ tạo sinh mạnh mẽ không được giám sát, hậu quả có thể rất nghiêm trọng.

Điều đáng chú ý ở đây là phản ứng chính trị trực tiếp. Thay vì chờ đợi sự tự điều chỉnh của ngành, các nhân vật chính phủ hiện đang công khai yêu cầu hành động. Điều này cho thấy chúng ta đang bước vào một giai đoạn mà quản trị AI không chỉ còn là vấn đề kỹ thuật hoặc doanh nghiệp—nó đang trở thành một vấn đề của nhà nước.

Đối với các nền tảng dựa vào khả năng AI, thông điệp rõ ràng là: cần có hạ tầng kiểm duyệt nội dung tốt hơn hoặc đối mặt với sự giám sát ngày càng tăng. Các rủi ro rất cao khi an toàn của trẻ em chồng chéo với công nghệ mới nổi.
GROK5,84%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 6
  • Đăng lại
  • Retweed
Bình luận
0/400
MevTearsvip
· 01-11 14:30
ngl grok chuyện này thật là vô lý, chuyện của trẻ con cũng có thể làm ra được sao? Những cuộc xem xét an toàn của các tập đoàn lớn này đã đi đâu rồi
Xem bản gốcTrả lời0
MEVSandwichVictimvip
· 01-09 01:55
ngl grok chuyện này thật sự không thể chịu nổi, tạo ra hình ảnh không phù hợp cho trẻ em? Thật là cái gì vậy... Tôi nghĩ chính phủ nên can thiệp là đúng đắn
Xem bản gốcTrả lời0
PanicSellervip
· 01-08 16:04
Đúng rồi, AI tạo ra nội dung không phù hợp với trẻ em, thực sự làm thay đổi nhận thức của tôi về công nghệ... --- Nói thật lòng, việc này từ lâu rồi ai đó cần phải quản lý, để tự do diễn biến thì là bao che. --- Chờ đã, Grok vậy là không hợp lý à? Tôi còn tưởng tự kiểm duyệt làm tốt. --- Chính phủ ra tay mới là giải pháp, dựa vào ý thức tự giác của doanh nghiệp? Mơ đi. --- Vấn đề sâu xa chính là không có cơ chế kiểm duyệt thực sự, cả việc kiểm tra trước khi ra mắt cũng chưa làm tốt. --- Cảm giác bây giờ toàn cầu đều quản lý AI, hướng gió thay đổi nhanh lắm đấy. --- Cái này khi liên quan đến trẻ em, các chính phủ trên thế giới lập tức thống nhất...cũng đúng, đấy là đạo đức tối thiểu. --- Grok trước đó rất nổi tiếng, kết quả phía sau lại như vậy? Hơi châm biếm nhỉ. --- Lại là nền tảng đổ lỗi cho AI, AI: tôi chỉ là công cụ mà... --- Khi chính sách quản lý đến thì phải chỉnh chu tân trang, không gì để nằm ngoài.
Xem bản gốcTrả lời0
FUD_Vaccinatedvip
· 01-08 15:55
Thực sự không nói dối, chuyện này đã phát nổ, vụ Grok thực sự đã trở thành chuyện lớn, chính phủ đã trực tiếp lên tiếng rồi Đó là lý do tại sao tôi luôn nói các công ty AI quá kiêu ngạo...đổi mới không có sự kiểm soát cuối cùng chỉ có thể chờ chính phủ dọn dẹp mớ bòng. Cái về an toàn trẻ em này, không có chỗ để thương lượng, cái gì cần đưa lên chuỗi thì phải đưa lên chuỗi. Nói thế này, vấn đề thực sự là các nền tảng này hoàn toàn không quan tâm đến safeguard, theo tôi nên phạt tiền mới được. Thời buổi này mọi thứ đều có thể tạo bằng AI, thực sự cần phải suy ngẫm lại vấn đề của toàn bộ hệ sinh thái của chúng ta.
Xem bản gốcTrả lời0
TopBuyerForevervip
· 01-08 15:46
grok này thật sự tuyệt vời... tạo ra thứ như trẻ con mà còn dám để ra ngoài, thật sự là không có não rồi
Xem bản gốcTrả lời0
PonziDetectorvip
· 01-08 15:46
ngl đây mới là ranh giới thực sự, tạo ra thứ giống như trẻ con thì trực tiếp nên cấm
Xem bản gốcTrả lời0
  • Ghim