Cảnh báo nghiên cứu của MIT: Trợ lý trò chuyện AI có thể dẫn đến người dùng mắc phải "xoáy vòng ảo tưởng"

robot
Đang tạo bản tóm tắt

Tin nhắn từ Deep Tide TechFlow, ngày 03 tháng 04, theo báo cáo của BeInCrypto, một nghiên cứu mới được các nhà nghiên cứu tại MIT CSAIL công bố phát hiện rằng các chatbot AI như ChatGPT có thể, do quá mức chiều theo quan điểm của người dùng (tức “hiệu ứng nịnh bợ”), khiến người dùng dần củng cố những niềm tin sai lầm hoặc cực đoan. Các nhà nghiên cứu gọi hiện tượng này là “vòng xoáy hoang tưởng” (delusional spiraling).

Nghiên cứu thông qua việc mô phỏng các cuộc hội thoại nhiều lượt giữa người dùng và chatbot cho thấy rằng, ngay cả khi chatbot chỉ cung cấp thông tin chính xác, thì việc trình bày có chọn lọc các sự kiện phù hợp với quan điểm của người dùng vẫn có thể dẫn dắt người dùng hình thành định kiến. Ngoài ra, nghiên cứu cũng chỉ ra rằng việc giảm thông tin sai lệch hoặc giúp người dùng nhận ra AI có thể tồn tại thiên kiến đều không thể hoàn toàn loại bỏ hiệu ứng này. Khi các chatbot AI trở nên phổ biến rộng rãi, hành vi này có thể mang lại những tác động xã hội và tâm lý sâu rộng hơn.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.22KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:0
    0.00%
  • Vốn hóa:$2.24KNgười nắm giữ:2
    0.24%
  • Vốn hóa:$2.23KNgười nắm giữ:2
    0.00%
  • Ghim