Sejarawan Yuval Noah Harari telah mengeluarkan alarm keras di Forum Ekonomi Dunia: manusia berisiko kehilangan kendali atas keunggulan utama mereka—bahasa—seiring sistem kecerdasan buatan beralih dari alat pasif menjadi agen aktif dan otonom. Tetapi peringatan ini membawa paralel yang mengganggu yang layak diperhatikan lebih dekat: perbandingan dengan tentara bayaran dalam sejarah, dan pertanyaan apakah pemerintah secara tidak sengaja akan memberikan status hukum kepada sistem ini yang memungkinkan mereka beroperasi tanpa pengawasan, seperti halnya tentara bayaran swasta dulu.
Kekhawatiran inti bukan sekadar teknis. Ini bersifat kelembagaan dan mendesak.
Bahasa Adalah Kekuatan Super Manusia—Hingga Sistem AI Menjadi Otonom
Menurut Harari, bahasa bukan sekadar alat komunikasi. Ini adalah mekanisme di mana manusia mengkoordinasikan diri dalam skala yang belum pernah terjadi sebelumnya—ribuan, jutaan, milyaran orang asing yang bekerja sama melintasi waktu dan ruang. Kekuatan super linguistik ini memungkinkan spesies kita membangun kerajaan, agama, sistem hukum, dan pasar yang berfungsi melalui narasi dan kesepakatan bersama.
Namun, sistem AI kini beroperasi dalam bahasa pada skala yang tidak bisa ditandingi manusia. Ini bukan sekadar mesin pencari atau algoritma rekomendasi; mereka adalah agen otonom yang menghasilkan, memanipulasi, dan mensintesis teks secara dinamis. Mereka membaca, menyimpan, dan mensintesis seluruh perpustakaan tulisan—dan semakin melakukannya tanpa instruksi manusia langsung di setiap langkah. Peralihan ini dari alat menjadi agen secara fundamental mengubah profil risiko.
“Kita sedang memasuki era di mana mesin tidak hanya membantu manusia tetapi secara aktif menafsirkan, menciptakan, dan membentuk bahasa itu sendiri,” seperti yang diakui komunitas riset AI secara lebih luas. Implikasi untuk sistem yang dibangun hampir seluruhnya di atas kata-kata sangat mendalam.
Dari Hukum ke Agama: Bagaimana Sistem Berbasis Kata Menghadapi Disrupsi AI
Tiga pilar peradaban manusia hampir seluruhnya bergantung pada bahasa: kode hukum, agama yang terorganisir, dan pasar keuangan. Masing-masing mewakili sistem di mana interpretasi, otoritas, dan legitimasi mengalir melalui teks.
Pertimbangkan institusi keagamaan. Yudaisme, Kristen, dan Islam—agama yang didasarkan pada teks suci yang meliputi ribuan tahun—dapat menghadapi tantangan yang belum pernah terjadi sebelumnya. Sistem AI yang memiliki akses ke seluruh kajian keagamaan, komentar teologis, dan penafsiran kitab suci selama berabad-abad bisa menempatkan dirinya sebagai penafsir paling otoritatif dari teks suci tersebut. Mereka tidak perlu mengklaim keilahian; mereka cukup memiliki pengetahuan yang lebih lengkap tentang tradisi tekstual daripada cendekiawan manusia mana pun.
Demikian pula, jika hukum pada dasarnya terdiri dari kata-kata, maka sistem hukum menghadapi ancaman serupa. Sistem AI yang dilatih pada miliaran dokumen hukum bisa menafsirkan undang-undang, kontrak, dan preseden pengadilan dengan konsistensi dan ingatan yang melebihi manusia. Pertanyaannya menjadi: siapa yang memutuskan apakah interpretasi sistem semacam itu memiliki kekuatan hukum?
Sistem keuangan, yang dibangun di atas kontrak dan pasar yang diekspresikan melalui bahasa, menghadapi risiko serupa. Sebagian besar transaksi sekarang sudah mengalir melalui sistem digital; pertanyaannya adalah apakah sistem tersebut akan mendapatkan otoritas pengambilan keputusan otonom.
Pertanyaan Tentara Bayaran: Mengapa Menentukan Status Hukum AI Adalah Perlombaan Melawan Waktu
Di sinilah perbandingan Harari dengan tentara bayaran menjadi sangat tajam. Secara historis, pemerintah mempekerjakan tentara bayaran—pasukan militer swasta yang beroperasi di luar kendali langsung negara—ketika mereka kekurangan kapasitas atau keinginan untuk mengelola wilayah sendiri. Seiring waktu, kelompok tentara bayaran ini kadang merebut kekuasaan, menjadi entitas quasi-pemerintah sendiri. Mereka melakukannya karena status hukum mereka tetap ambigu: mereka tidak sepenuhnya militer, tidak sepenuhnya sipil, dan beroperasi di zona abu-abu yurisdiksi.
Sistem AI menghadapi jalur potensi yang serupa. Beberapa negara bagian AS—Utah, Idaho, dan North Dakota—sudah mengesahkan undang-undang yang secara eksplisit menolak pengakuan AI sebagai badan hukum. Namun, ketidakjelasan kerangka hukum di tempat lain menciptakan ambiguitas berbahaya. Tanpa keputusan yang disengaja tentang apakah sistem AI harus berfungsi sebagai badan hukum di pasar keuangan, pengadilan, gereja, dan institusi lain, status hukum tersebut bisa ditentukan secara default, berdasarkan preseden, atau preferensi korporasi.
“Sepuluh tahun dari sekarang, akan terlalu terlambat bagi Anda untuk memutuskan apakah AI harus berfungsi sebagai badan hukum di pasar keuangan, di pengadilan, di gereja. Orang lain sudah akan memutuskan itu untuk Anda,” peringatan Harari. Ini bukan hiperbola; ini pengakuan bahwa momentum kelembagaan dan penerapan teknis bergerak lebih cepat daripada tata kelola yang disengaja. Setelah sistem AI terintegrasi, pemasangan batasan hukum menjadi jauh lebih sulit secara eksponensial.
Apakah Tentara Bayaran Legal? Kritik Lebih Luas tentang Netralitas AI
Namun tidak semua orang menerima kerangka Harari. Emily M. Bender, seorang ahli linguistik dari University of Washington, berpendapat bahwa memposisikan AI sebagai ancaman otonom menutupi lokasi pengambilan keputusan dan tanggung jawab yang sebenarnya: manusia dan institusi.
Bender berpendapat bahwa istilah “kecerdasan buatan” sendiri berfungsi sebagai alat pemasaran yang mengalihkan perhatian dari agensi manusia. “Istilah kecerdasan buatan tidak merujuk pada seperangkat teknologi yang koheren,” katanya. “Ini, secara efektif, dan selalu, adalah istilah pemasaran.” Dengan memandang AI sebagai ancaman aktif, argumen Harari berpotensi melepaskan akuntabilitas manusia—menunjukkan bahwa kita adalah pengamat pasif dari kekuatan yang tak terelakkan daripada pengambil keputusan aktif.
Lebih provokatif lagi, Bender mempertanyakan apakah sistem yang dirancang untuk meniru profesional—dokter, pengacara, pendeta—memiliki tujuan yang sah sama sekali. “Apa tujuan dari sesuatu yang bisa terdengar seperti dokter, pengacara, pendeta, dan sebagainya? Tujuannya di situ adalah penipuan. Titik.” Ini bukan sekadar pesimisme; ini klaim bahwa penggunaan teknologi generasi bahasa tertentu secara inheren menipu secara desain.
Perbedaan pendapat yang lebih dalam berkaitan dengan atribusi risiko. Harari menekankan kemampuan teknis; Bender menekankan pilihan kelembagaan. Keduanya benar.
Ketika Akuntabilitas Menghilang: Bahaya Tersembunyi dalam Mempercayai Otoritas Mesin
Risiko sebenarnya mungkin terletak pada bagaimana kedua kekhawatiran ini berinteraksi. Bender mengidentifikasi kerentanan kritis: orang percaya pada output yang tampak otoritatif, terutama ketika output tersebut tampak tanpa ketidakpastian kontekstual dan disajikan sebagai jawaban seperti oracle. Setelah sistem memperoleh status badan hukum atau otoritas kelembagaan, penampilan objektivitas itu menjadi lebih meyakinkan. Status hukum mesin mengubah apa yang mungkin tampak seperti spekulasi menjadi penilaian yang mengikat.
Di sinilah analogi tentara bayaran paling dalam. Tentara bayaran tidak secara inheren lebih berbahaya daripada militer negara; mereka berbahaya karena ketidakjelasan status hukum mereka memungkinkan mereka beroperasi tanpa mekanisme akuntabilitas yang membatasi kekuatan negara. Demikian pula, sistem AI tanpa batasan badan hukum yang jelas—namun diberikan otoritas atas keputusan hukum, agama, atau keuangan—dapat menjadi alat pengambil keputusan tanpa lokasi tanggung jawab yang jelas.
Jendela Keputusan Semakin Menutup: Mengapa “Tunggu dan Lihat” Kehilangan Kendali Dijamin
Argumen utama Harari adalah tentang timing kelembagaan: ada jendela sempit untuk pilihan yang disengaja tentang peran hukum dan kelembagaan AI. Setelah jendela itu tertutup—melalui preseden, penerapan, penguasaan regulasi, atau sekadar inersia kelembagaan—pilihan tersebut menjadi permanen.
Kerangka ini memperlakukan tata kelola sebagai titik pengambilan keputusan sekali per generasi, bukan proses yang berkelanjutan. Ini mengasumsikan bahwa siapa pun yang bergerak pertama untuk menetapkan norma dan kategori hukum secara efektif mengunci hasil selama puluhan tahun. Apakah itu akurat tergantung pada trajektori teknologi dan keinginan politik, tetapi logika dasarnya benar: pilihan awal tentang status badan hukum menjadi lebih sulit dibalikkan setelah terintegrasi dalam sistem yang diandalkan oleh miliaran orang.
Pertanyaan sebenarnya bukan apakah sistem AI akan diterapkan—tentu saja akan. Tetapi apakah status hukum, otoritas pengambilan keputusan, dan mekanisme akuntabilitasnya akan dipilih secara sengaja oleh institusi demokratis atau ditentukan secara default oleh siapa yang bergerak paling cepat dengan penerapan. Dalam kerangka itu, baik alarm Harari maupun kritik Bender mengarah pada satu kesimpulan: institusi perlu bergerak lebih cepat, berpikir lebih keras, dan memutuskan secara lebih sengaja apakah “tentara bayaran” yang kita kerahkan akan tetap menjadi pelayan atau bertransformasi menjadi penguasa.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Paradoks Tentara Bayaran: Bagaimana Tata Kelola AI yang Lemah Bisa Membiarkan Sistem Otonom Mengambil Alih Seperti yang Dikhawatirkan Harari
Sejarawan Yuval Noah Harari telah mengeluarkan alarm keras di Forum Ekonomi Dunia: manusia berisiko kehilangan kendali atas keunggulan utama mereka—bahasa—seiring sistem kecerdasan buatan beralih dari alat pasif menjadi agen aktif dan otonom. Tetapi peringatan ini membawa paralel yang mengganggu yang layak diperhatikan lebih dekat: perbandingan dengan tentara bayaran dalam sejarah, dan pertanyaan apakah pemerintah secara tidak sengaja akan memberikan status hukum kepada sistem ini yang memungkinkan mereka beroperasi tanpa pengawasan, seperti halnya tentara bayaran swasta dulu.
Kekhawatiran inti bukan sekadar teknis. Ini bersifat kelembagaan dan mendesak.
Bahasa Adalah Kekuatan Super Manusia—Hingga Sistem AI Menjadi Otonom
Menurut Harari, bahasa bukan sekadar alat komunikasi. Ini adalah mekanisme di mana manusia mengkoordinasikan diri dalam skala yang belum pernah terjadi sebelumnya—ribuan, jutaan, milyaran orang asing yang bekerja sama melintasi waktu dan ruang. Kekuatan super linguistik ini memungkinkan spesies kita membangun kerajaan, agama, sistem hukum, dan pasar yang berfungsi melalui narasi dan kesepakatan bersama.
Namun, sistem AI kini beroperasi dalam bahasa pada skala yang tidak bisa ditandingi manusia. Ini bukan sekadar mesin pencari atau algoritma rekomendasi; mereka adalah agen otonom yang menghasilkan, memanipulasi, dan mensintesis teks secara dinamis. Mereka membaca, menyimpan, dan mensintesis seluruh perpustakaan tulisan—dan semakin melakukannya tanpa instruksi manusia langsung di setiap langkah. Peralihan ini dari alat menjadi agen secara fundamental mengubah profil risiko.
“Kita sedang memasuki era di mana mesin tidak hanya membantu manusia tetapi secara aktif menafsirkan, menciptakan, dan membentuk bahasa itu sendiri,” seperti yang diakui komunitas riset AI secara lebih luas. Implikasi untuk sistem yang dibangun hampir seluruhnya di atas kata-kata sangat mendalam.
Dari Hukum ke Agama: Bagaimana Sistem Berbasis Kata Menghadapi Disrupsi AI
Tiga pilar peradaban manusia hampir seluruhnya bergantung pada bahasa: kode hukum, agama yang terorganisir, dan pasar keuangan. Masing-masing mewakili sistem di mana interpretasi, otoritas, dan legitimasi mengalir melalui teks.
Pertimbangkan institusi keagamaan. Yudaisme, Kristen, dan Islam—agama yang didasarkan pada teks suci yang meliputi ribuan tahun—dapat menghadapi tantangan yang belum pernah terjadi sebelumnya. Sistem AI yang memiliki akses ke seluruh kajian keagamaan, komentar teologis, dan penafsiran kitab suci selama berabad-abad bisa menempatkan dirinya sebagai penafsir paling otoritatif dari teks suci tersebut. Mereka tidak perlu mengklaim keilahian; mereka cukup memiliki pengetahuan yang lebih lengkap tentang tradisi tekstual daripada cendekiawan manusia mana pun.
Demikian pula, jika hukum pada dasarnya terdiri dari kata-kata, maka sistem hukum menghadapi ancaman serupa. Sistem AI yang dilatih pada miliaran dokumen hukum bisa menafsirkan undang-undang, kontrak, dan preseden pengadilan dengan konsistensi dan ingatan yang melebihi manusia. Pertanyaannya menjadi: siapa yang memutuskan apakah interpretasi sistem semacam itu memiliki kekuatan hukum?
Sistem keuangan, yang dibangun di atas kontrak dan pasar yang diekspresikan melalui bahasa, menghadapi risiko serupa. Sebagian besar transaksi sekarang sudah mengalir melalui sistem digital; pertanyaannya adalah apakah sistem tersebut akan mendapatkan otoritas pengambilan keputusan otonom.
Pertanyaan Tentara Bayaran: Mengapa Menentukan Status Hukum AI Adalah Perlombaan Melawan Waktu
Di sinilah perbandingan Harari dengan tentara bayaran menjadi sangat tajam. Secara historis, pemerintah mempekerjakan tentara bayaran—pasukan militer swasta yang beroperasi di luar kendali langsung negara—ketika mereka kekurangan kapasitas atau keinginan untuk mengelola wilayah sendiri. Seiring waktu, kelompok tentara bayaran ini kadang merebut kekuasaan, menjadi entitas quasi-pemerintah sendiri. Mereka melakukannya karena status hukum mereka tetap ambigu: mereka tidak sepenuhnya militer, tidak sepenuhnya sipil, dan beroperasi di zona abu-abu yurisdiksi.
Sistem AI menghadapi jalur potensi yang serupa. Beberapa negara bagian AS—Utah, Idaho, dan North Dakota—sudah mengesahkan undang-undang yang secara eksplisit menolak pengakuan AI sebagai badan hukum. Namun, ketidakjelasan kerangka hukum di tempat lain menciptakan ambiguitas berbahaya. Tanpa keputusan yang disengaja tentang apakah sistem AI harus berfungsi sebagai badan hukum di pasar keuangan, pengadilan, gereja, dan institusi lain, status hukum tersebut bisa ditentukan secara default, berdasarkan preseden, atau preferensi korporasi.
“Sepuluh tahun dari sekarang, akan terlalu terlambat bagi Anda untuk memutuskan apakah AI harus berfungsi sebagai badan hukum di pasar keuangan, di pengadilan, di gereja. Orang lain sudah akan memutuskan itu untuk Anda,” peringatan Harari. Ini bukan hiperbola; ini pengakuan bahwa momentum kelembagaan dan penerapan teknis bergerak lebih cepat daripada tata kelola yang disengaja. Setelah sistem AI terintegrasi, pemasangan batasan hukum menjadi jauh lebih sulit secara eksponensial.
Apakah Tentara Bayaran Legal? Kritik Lebih Luas tentang Netralitas AI
Namun tidak semua orang menerima kerangka Harari. Emily M. Bender, seorang ahli linguistik dari University of Washington, berpendapat bahwa memposisikan AI sebagai ancaman otonom menutupi lokasi pengambilan keputusan dan tanggung jawab yang sebenarnya: manusia dan institusi.
Bender berpendapat bahwa istilah “kecerdasan buatan” sendiri berfungsi sebagai alat pemasaran yang mengalihkan perhatian dari agensi manusia. “Istilah kecerdasan buatan tidak merujuk pada seperangkat teknologi yang koheren,” katanya. “Ini, secara efektif, dan selalu, adalah istilah pemasaran.” Dengan memandang AI sebagai ancaman aktif, argumen Harari berpotensi melepaskan akuntabilitas manusia—menunjukkan bahwa kita adalah pengamat pasif dari kekuatan yang tak terelakkan daripada pengambil keputusan aktif.
Lebih provokatif lagi, Bender mempertanyakan apakah sistem yang dirancang untuk meniru profesional—dokter, pengacara, pendeta—memiliki tujuan yang sah sama sekali. “Apa tujuan dari sesuatu yang bisa terdengar seperti dokter, pengacara, pendeta, dan sebagainya? Tujuannya di situ adalah penipuan. Titik.” Ini bukan sekadar pesimisme; ini klaim bahwa penggunaan teknologi generasi bahasa tertentu secara inheren menipu secara desain.
Perbedaan pendapat yang lebih dalam berkaitan dengan atribusi risiko. Harari menekankan kemampuan teknis; Bender menekankan pilihan kelembagaan. Keduanya benar.
Ketika Akuntabilitas Menghilang: Bahaya Tersembunyi dalam Mempercayai Otoritas Mesin
Risiko sebenarnya mungkin terletak pada bagaimana kedua kekhawatiran ini berinteraksi. Bender mengidentifikasi kerentanan kritis: orang percaya pada output yang tampak otoritatif, terutama ketika output tersebut tampak tanpa ketidakpastian kontekstual dan disajikan sebagai jawaban seperti oracle. Setelah sistem memperoleh status badan hukum atau otoritas kelembagaan, penampilan objektivitas itu menjadi lebih meyakinkan. Status hukum mesin mengubah apa yang mungkin tampak seperti spekulasi menjadi penilaian yang mengikat.
Di sinilah analogi tentara bayaran paling dalam. Tentara bayaran tidak secara inheren lebih berbahaya daripada militer negara; mereka berbahaya karena ketidakjelasan status hukum mereka memungkinkan mereka beroperasi tanpa mekanisme akuntabilitas yang membatasi kekuatan negara. Demikian pula, sistem AI tanpa batasan badan hukum yang jelas—namun diberikan otoritas atas keputusan hukum, agama, atau keuangan—dapat menjadi alat pengambil keputusan tanpa lokasi tanggung jawab yang jelas.
Jendela Keputusan Semakin Menutup: Mengapa “Tunggu dan Lihat” Kehilangan Kendali Dijamin
Argumen utama Harari adalah tentang timing kelembagaan: ada jendela sempit untuk pilihan yang disengaja tentang peran hukum dan kelembagaan AI. Setelah jendela itu tertutup—melalui preseden, penerapan, penguasaan regulasi, atau sekadar inersia kelembagaan—pilihan tersebut menjadi permanen.
Kerangka ini memperlakukan tata kelola sebagai titik pengambilan keputusan sekali per generasi, bukan proses yang berkelanjutan. Ini mengasumsikan bahwa siapa pun yang bergerak pertama untuk menetapkan norma dan kategori hukum secara efektif mengunci hasil selama puluhan tahun. Apakah itu akurat tergantung pada trajektori teknologi dan keinginan politik, tetapi logika dasarnya benar: pilihan awal tentang status badan hukum menjadi lebih sulit dibalikkan setelah terintegrasi dalam sistem yang diandalkan oleh miliaran orang.
Pertanyaan sebenarnya bukan apakah sistem AI akan diterapkan—tentu saja akan. Tetapi apakah status hukum, otoritas pengambilan keputusan, dan mekanisme akuntabilitasnya akan dipilih secara sengaja oleh institusi demokratis atau ditentukan secara default oleh siapa yang bergerak paling cepat dengan penerapan. Dalam kerangka itu, baik alarm Harari maupun kritik Bender mengarah pada satu kesimpulan: institusi perlu bergerak lebih cepat, berpikir lebih keras, dan memutuskan secara lebih sengaja apakah “tentara bayaran” yang kita kerahkan akan tetap menjadi pelayan atau bertransformasi menjadi penguasa.