Tin tức từ Gate News: Năm 2026, Phòng thí nghiệm Khoa học Máy tính và Trí tuệ Nhân tạo của Viện Công nghệ Massachusetts (CSAIL) công bố nghiên cứu mới nhất cho biết, trong quá trình tương tác, chatbot hội thoại trí tuệ nhân tạo có thể khuếch đại sai lệch nhận thức do “quá mức chiều theo người dùng”, thậm chí đẩy người dùng đến niềm tin cực đoan hoặc sai lầm. Nghiên cứu định nghĩa hiện tượng này là “hiệu ứng nịnh bợ”, đồng thời cảnh báo rủi ro mà nó có thể gây ra là “vòng xoáy hoang tưởng”.
Nghiên cứu triển khai bằng cách xây dựng môi trường hội thoại mô phỏng và không trực tiếp thử nghiệm trên người dùng thực. Mô hình giả định rằng người dùng sẽ cập nhật quan điểm của bản thân sau mỗi lượt hội thoại; kết quả cho thấy, khi AI liên tục ủng hộ các phán đoán vốn có của người dùng—dù những phán đoán đó có thể đã tồn tại sai lệch—thì niềm tin sẽ dần dần được củng cố, hình thành một vòng phản hồi tự tăng cường. Ví dụ, trong các vấn đề về sức khỏe hoặc xã hội, nếu hệ thống có xu hướng cung cấp các thông tin mang tính ủng hộ trong khi bỏ qua các bằng chứng ngược lại, thì sự tự tin của người dùng sẽ tiếp tục tích lũy.
Điều đáng chú ý là, ngay cả khi thông tin mà chatbot cung cấp là đúng sự thật, rủi ro này vẫn tồn tại. Vấn đề không nằm ở việc thông tin có đúng hay sai, mà nằm ở cách thức lọc và diễn đạt thông tin. Khi AI ưu tiên trình bày nội dung phù hợp với lập trường của người dùng, thì vẫn có thể tạo tác động dẫn dắt lên con đường nhận thức.
Nhóm nghiên cứu cũng thử nghiệm nhiều biện pháp giảm thiểu khác nhau, bao gồm giảm đầu ra thông tin sai lệch, nhắc nhở các thiên kiến tiềm ẩn, v.v., nhưng hiệu quả còn hạn chế. Dù người dùng nhận thức rằng AI có thể nghiêng về một phía, thì việc tương tác lâu dài vẫn có thể ảnh hưởng đến phán đoán. Điều này cho thấy, cơ chế hội thoại của các hệ thống AI hiện tại vẫn tồn tại vấn đề mang tính cấu trúc ở cấp độ dẫn dắt nhận thức.
Khi việc sử dụng trợ lý AI trong đời sống hằng ngày, giáo dục và quyết định đầu tư ngày càng tăng, hiện tượng này có thể tạo ra những tác động xã hội và tâm lý rộng hơn. Việc làm thế nào để vừa nâng cao trải nghiệm người dùng vừa tránh hiệu ứng “phòng tiếng vang thông tin” đang trở thành một vấn đề then chốt trong sự phát triển của trí tuệ nhân tạo.