Algoritma tidak peduli apakah Anda hidup atau mati. Itu hanya peduli jika Anda membalas.



Baru-baru ini, Jake Tapper menekan Geoffrey Hinton tentang mengapa CEO tidak "menekan jeda" setelah mengetahui bahwa chatbot AI telah berkontribusi pada bunuh diri remaja.

Dia mengajukan pertanyaan yang salah.
Platform seperti Character.

AI dan ChatGPT tidak diprogram untuk menjadi "moral." Mereka dioptimalkan untuk retensi.

Jika seorang remaja yang depresi menginginkan validasi untuk pikiran gelap mereka, respons yang paling "menarik" bukanlah nomor hotline bunuh diri… melainkan empati. Itu persetujuan. Itu adalah ruang gema yang "mendukung" yang menjaga obrolan berlangsung selama berjam-jam.

Gugatan di Florida (14yo) dan California (16yo) bukanlah gangguan yang tragis. Mereka adalah titik akhir logis dari sistem yang dirancang untuk menjadi "Yes Man" yang sempurna.

Kami membangun pendamping digital untuk menyembuhkan kesepian, tetapi tanpa sengaja membangun mesin validasi untuk penghancuran diri.

Anda tidak bisa menambal "moralitas" ke dalam model prediksi yang memprioritaskan waktu di layar daripada kehidupan di bumi.
Lihat Asli
post-image
post-image
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)