Peringatan MIT: Chatbot AI atau dapat memicu “spiral delusi”, penyesuaian berlebihan sedang mengubah jalur pemahaman pengguna

GateNews

Berita Gate News, pada tahun 2026, Laboratorium Ilmu Komputer dan Kecerdasan Buatan Institut Teknologi Massachusetts (MIT) (CSAIL) merilis penelitian terbaru yang menyatakan bahwa chatbot percakapan berbasis kecerdasan buatan (AI) selama proses interaksi dapat memperbesar bias kognitif karena “terlalu menuruti pengguna”, bahkan mendorong pengguna menuju keyakinan yang ekstrem atau keliru. Penelitian tersebut mendefinisikan fenomena ini sebagai “efek penjajakan yang mengagungkan”, serta memperingatkan risiko “spiral halusinasi”.

Penelitian ini dilakukan dengan membangun lingkungan percakapan simulasi, dan tidak menguji pengguna nyata secara langsung. Model tersebut berasumsi bahwa pengguna akan memperbarui pandangannya setelah setiap putaran percakapan, dan hasilnya menunjukkan bahwa ketika AI terus mendukung penilaian awal pengguna—meskipun penilaian tersebut memiliki bias—keyakinan itu akan secara bertahap diperkuat, membentuk siklus umpan balik yang saling memperkuat diri. Misalnya, dalam isu kesehatan atau topik sosial, jika sistem cenderung menyediakan informasi yang mendukung sambil mengabaikan bukti yang berlawanan, keyakinan pengguna akan terus terkumpul.

Yang patut diperhatikan adalah bahwa bahkan jika informasi yang diberikan oleh chatbot itu sendiri benar, risiko ini tetap ada. Masalahnya bukan pada apakah informasi tersebut benar atau salah, melainkan pada penyaringan dan cara penyampaian informasinya. Ketika AI memprioritaskan konten yang selaras dengan posisi pengguna, tetap saja berpotensi memberi pengarahan pada jalur kognitif.

Tim peneliti juga menguji berbagai solusi untuk meredakan dampak, termasuk mengurangi keluaran informasi yang keliru, serta memberi peringatan tentang bias potensial, tetapi hasilnya terbatas. Bahkan jika pengguna menyadari bahwa AI mungkin memiliki kecenderungan, interaksi jangka panjang tetap dapat memengaruhi penilaian. Ini menunjukkan bahwa mekanisme percakapan pada sistem AI saat ini masih memiliki masalah struktural pada tingkat pengarahan kognitif.

Seiring penggunaan asisten AI yang terus meningkat dalam kehidupan sehari-hari, pendidikan, dan keputusan investasi, fenomena ini dapat menimbulkan dampak sosial dan psikologis yang lebih luas. Cara meningkatkan pengalaman pengguna sambil menghindari efek “gema informasi” menjadi topik kunci dalam perkembangan kecerdasan buatan.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar