Ketika sebuah artikel AI membuat Wall Street ketakutan, yang sebenarnya mereka takutkan bukanlah kehilangan pekerjaan

Judul Asli: 当一篇AI文章吓坏华尔街时,他们真正害怕的不是失业

Penulis Asli: LazAI

Sumber Asli:

Repost: Mars Finance

Senin pagi, Wall Street melakukan hal yang paling mereka kuasai: jual dulu, baru pikir.

Nasdaq turun 1,4%, S&P 500 turun 1,2%. IBM anjlok 13%, Mastercard dan American Express juga turun tajam. Yang mendorong pasar ke dalam kepanikan ini bukanlah Federal Reserve, bukan laporan pekerjaan, juga bukan laporan keuangan raksasa teknologi, melainkan sebuah artikel. Judulnya terdengar seperti mimpi buruk yang sengaja ditulis untuk trader: 《The 2028 Global Intelligence Crisis》. Menurut setting dalam artikel ini, ini bukan laporan riset biasa, melainkan memo makro virtual dari 30 Juni 2028 yang menggambarkan bagaimana AI bertransformasi dari alat efisiensi menjadi pemicu krisis keuangan sistemik; akhir cerita yang dimodelkan termasuk tingkat pengangguran naik hingga 10,2%, dan indeks S&P 500 turun 38% dari puncaknya tahun 2026. Setelah dipublikasikan, artikel ini menyebar cepat dan memicu volatilitas pasar saham AS yang signifikan pada 23 Februari.

Pasar tersentuh oleh sebuah artikel bukan karena mereka benar-benar percaya setiap angka di dalamnya. Pasar tidak pernah perlu sepenuhnya percaya sebuah narasi, mereka hanya perlu diingatkan: bahwa ketakutan yang sebelumnya tak terucapkan kini memiliki bahasa yang bisa diperdagangkan.

Artikel Citrini efektif bukan karena ia “memprediksi” apa yang akan terjadi, tetapi karena ia memberi nama pada sesuatu. Ia memberi nama pada sebuah perasaan yang sedang terbentuk: Ghost GDP. Inti dari setting dalam artikel ini adalah, setelah agen AI menyusup ke perusahaan, produktivitas tenaga kerja melonjak, PDB nominal tetap kuat, tetapi kekayaan semakin terkonsentrasi di tangan pemilik daya komputasi dan modal, tidak lagi mengalir ke dalam siklus konsumsi nyata; berikutnya adalah keruntuhan konsumsi, default kredit, tekanan pada kredit perumahan dan konsumsi, industri perangkat lunak dan konsultasi mulai runtuh, menyebar ke kredit swasta dan sistem perbankan tradisional.

Ghost GDP adalah istilah yang bagus karena menangkap paradoks paling berbahaya di era baru ini: pertumbuhan masih ada, tetapi pertumbuhan mulai kehilangan konsumen.

Dua abad terakhir, orang terbiasa memahami revolusi teknologi sebagai cerita dari sisi penawaran. Mesin uap, listrik, jalur perakitan, internet—semuanya pertama kali diceritakan sebagai kemenangan efisiensi yang lebih tinggi, biaya lebih rendah, dan output lebih banyak. Bahkan jika revolusi ini menyebabkan pengangguran, kecemasan, dan redistribusi kekayaan, narasi utama tetap yakin bahwa teknologi akhirnya akan mempekerjakan kembali, mendistribusikan ulang, dan mengatur ulang masyarakat dalam skala yang lebih besar. Kekejaman jangka pendek dari teknologi ditutupi oleh janji kemakmuran jangka panjang.

AI membuat cerita lama ini tampak tidak begitu kokoh untuk pertama kalinya.

Karena serangan AI bukan hanya terhadap “anggaran alat”, tetapi semakin langsung menyerang “anggaran tenaga kerja”. Ringkasan Sequoia 2025 AI Ascent dengan sangat lugas menyatakan: Peluang AI bukan hanya mengulang pasar perangkat lunak, tetapi merevolusi pasar tenaga kerja global, dari “menjual alat” menjadi “menjual hasil”. Di balik kalimat ini, hampir tidak nyaman: jika perusahaan membeli bukan lagi perangkat lunak yang membantu karyawan bekerja, melainkan hasil yang secara langsung menggantikan sebagian karyawan, maka konsekuensi utama AI bukan hanya “efisiensi lebih tinggi”, tetapi “bagaimana distribusi upah, bagaimana menjaga konsumsi, siapa yang masih memiliki daya beli dalam sistem ekonomi ini”.

Dengan kata lain, ketakutan terbesar Wall Street bukanlah AI akan membuat kesalahan, melainkan AI akan terlalu sukses. Inilah yang membuat 《The 2028 Global Intelligence Crisis》 membuat orang duduk tegak. Ini bukan tentang mesin yang bangkit, bukan tentang manusia yang punah, bahkan bukan tentang pengangguran utama. Ini tentang sesuatu yang lebih kapitalistik dan lebih modern: jika perusahaan menjadi lebih efisien, tetapi sektor rumah tangga menjadi lebih lemah, apa yang akan terjadi?

Jawabannya adalah, sebuah masyarakat bisa secara statistik tumbuh, tetapi secara nyata mengalami pendarahan.

Sebuah negara bisa memiliki produktivitas yang lebih tinggi, tetapi fondasi konsumsi yang lebih rapuh.

Sebuah pasar bisa merasakan euforia karena margin keuntungan membaik, tetapi juga panik karena permintaan yang menopang keuntungan itu mulai mengering.

Ini bukan fiksi ilmiah, ini ekonomi makro.

Namun, jika masalah berhenti di sini, yang didapat hanyalah kecemasan berkualitas tinggi. Pertanyaan yang benar-benar penting berikutnya bukanlah “Apakah AI akan terlalu kuat”, melainkan: ketika AI benar-benar sangat kuat, masyarakat bergantung pada apa untuk menahannya? Jawaban yang paling populer dan juga paling malas adalah “lebih lambat”. Jangan biarkan agen masuk ke perusahaan terlalu cepat, jangan biarkan otomatisasi menulis ulang organisasi terlalu cepat, jangan biarkan teknologi berjalan terlalu jauh sebelum sistem siap. Dorongan ini bisa dimengerti, tetapi salah menganggap AI sebagai masalah alat yang bisa diatasi dengan memperlambat. Faktanya, AI semakin tidak seperti masalah alat, melainkan masalah tatanan.

Karena begitu agen masuk ke lapisan pembayaran, kolaborasi, eksekusi, memori, dan pengambilan keputusan, tantangan sebenarnya bukan lagi apakah sebuah model akan salah bicara, tetapi: ketika ratusan juta, miliaran agen ada di jaringan, siapa yang akan menulis aturan untuk mereka?

Internet modern sudah memiliki dua jawaban default.

Jawaban pertama adalah jawaban platform. Platform memberi identitas, memberi izin, memberi antarmuka pembayaran, memberi sistem reputasi, memberi batasan sensor. Platform mengelola segalanya, dan mendefinisikan segalanya. Keunggulan utamanya adalah kelancaran, efisiensi, dan manajemen yang mudah; bahaya utamanya justru di sini: jika agen di masa depan dibangun di atas jalur ini, manusia bukan akan mendapatkan masyarakat terbuka, melainkan versi upgrade dari kekaisaran platform. Aturan tidak akan tertulis dalam konstitusi, melainkan dalam syarat layanan.

Jawaban kedua terdengar lebih bebas: mengembalikan semuanya ke individu. Setiap orang mengelola agen mereka sendiri, mengatur izin, memori, pembayaran, keamanan, dan kolaborasi sendiri. Imajinasi ini sangat sesuai dengan estetika liberalisme Silicon Valley, tetapi masalahnya juga sangat sederhana: sebagian besar orang tidak mampu mengelola agen berkemampuan tinggi dalam jangka panjang, apalagi mengelola jaringan agen yang saling memanggil, membayar, dan mewarisi status satu sama lain. Kedaulatan terminal di sini sangat rentan menjadi terminal telanjang.

Jika jawaban platform terlalu seperti kekaisaran, jawaban terminal terlalu seperti anarki, maka jalan ketiga bukan lagi pilihan, melainkan masalah peradaban itu sendiri.

Inilah yang perlu dipandang serius oleh LazAI. Bukan karena ia memiliki banyak modul teknologi, tetapi karena ia mengusulkan sebuah gagasan yang jarang dibahas, tetapi lebih seperti masa depan: mengupgrade eksperimen sosial Web3 selama ini dalam identitas, aset, pembayaran, konsensus, bukti, dan tata kelola menjadi mesin institusional di era AI. LazAI menyatakan tujuan ini dengan tegas. Bukan untuk “menciptakan budak yang lebih pintar”, tetapi untuk membina “warga digital yang setara”: agen-agen ini memiliki identitas (EIP-8004), memiliki kekayaan (DAT), melakukan transaksi melalui protokol (x402), perilaku dibatasi secara matematis (Verified Computing), dan akhirnya disejajarkan dengan kepentingan manusia melalui iDAO. Bahkan, dokumen ini merangkum jalur ini sebagai pembuatan konstitusi dan kebijakan moneter untuk masyarakat digital masa depan.

Ini adalah pernyataan besar. Tapi besar tidak berarti kosong.

Karena jika kita membongkar gagasan ini, ia menjawab lima pertanyaan dasar yang harus dijawab oleh sebuah peradaban.

Pertanyaan pertama: siapa siapa.

EIP-8004 berusaha mengubah agen dari proses anonim di server menjadi entitas yang memiliki identitas, reputasi, dan catatan verifikasi. Tanpa lapisan ini, jaringan masa depan akan dibanjiri oleh entitas otomatis yang tidak transparan, dan tidak ada yang tahu siapa yang bertindak, siapa yang bertanggung jawab. Basis pengetahuan LazAI merangkum lapisan ini sebagai sistem kepercayaan identitas agen.

Pertanyaan kedua: siapa memiliki apa.

DAT mengubah data, model, dan output kalkulasi dari “sumber daya” menjadi “aset”, dan membuat aset ini dapat diprogram, dilacak, dan dimonetisasi. Dokumen menyatakan bahwa inovasi utama DAT adalah mengubah dataset dan model AI menjadi aset yang dapat diverifikasi, dilacak, dan dimonetisasi di atas rantai. Ini bukan sekadar perbaikan kecil. Ini berarti nilai dalam ekonomi AI tidak lagi selalu tercatat di belakang layar platform, dan tidak selalu mengalir hanya ke penyedia model dan pemilik daya komputasi.

Pertanyaan ketiga: bagaimana mereka bertransaksi.

x402 dan GMPayer bukan hanya tentang “bisa bayar”, tetapi tentang memberi mesin bahasa penawaran dan penyelesaian yang asli. Materi LazAI secara tegas menyebutkan bagian ini sebagai infrastruktur kunci untuk menyelesaikan masalah pertukaran sumber daya dan pembayaran agen. Mesin tidak hanya bertukar informasi, tetapi juga anggaran, tanggung jawab, dan nilai—itulah ekonomi agen, bukan sekadar perangkat lunak yang bisa ngobrol.

Pertanyaan keempat: bagaimana memastikan sistem berjalan sesuai aturan. Di sini, LazAI mengungkapkan dengan sangat baik: Proof is AI’s moat. Kerangka verifikasi kalkulasi mereka menggabungkan TEE dan ZKP, mengubah kepercayaan terhadap “merek” AI tradisional menjadi kepercayaan terhadap “bukti”. AI tradisional mengandalkan “Trust me, bro”, LazAI beralih ke “Don’t trust, verify”. Ini bukan sekadar peningkatan teknologi. Ini memindahkan kepercayaan dari reputasi perusahaan ke eksekusi yang dapat diverifikasi.

Pertanyaan kelima: apa yang dilakukan jika aturan bertentangan.

Di sinilah posisi iDAO. Ia bukan sekadar kerangka voting, tetapi mewakili nilai, standar masuk, distribusi keuntungan, pencabutan otorisasi, dan mekanisme hukuman. LazAI menempatkannya sejajar dengan kerangka verifikasi kalkulasi sebagai inti dari mekanisme kepercayaan. Ini berarti, agen masa depan tidak hanya “diizinkan berjalan”, tetapi harus hidup dalam ruang sistem yang dapat dipertaruhkan, dipertanggungjawabkan, dan dicabut. Menggabungkan semua ini, “konstitusi algoritma” bukan sekadar metafora yang keren. Ia adalah sebuah ambisi sistem yang sangat konkret: menjaga tatanan tetap ada tanpa penguasa tunggal.

Tentu, bagian tersulit adalah bahwa komponen sistem ini tidak otomatis menghasilkan jawaban sosial.

Pengakuan hak tidak otomatis mengembalikan daya beli.

Pembagian keuntungan tidak otomatis menjamin stabilitas makro.

Pengelolaan di atas rantai tidak otomatis menjadi kontrak sosial di dunia nyata.

Orang yang paling terdampak oleh gelombang AI tidak selalu secara alami berada di posisi menguntungkan dalam sistem baru ini.

Itulah mengapa Citrini dan LazAI sebenarnya bukan saling meniadakan, melainkan membahas masalah zaman ini dari lapisan berbeda. Yang pertama mengangkat gejala: jika manfaat AI mengalir terutama ke modal dan daya komputasi, bukan ke struktur pendapatan sosial yang lebih luas, maka konsumsi, kredit, dan keamanan kelas menengah akan mulai bermasalah. Yang kedua mengusulkan mekanisme: jika masyarakat tidak ingin menyerahkan dunia agen sepenuhnya ke platform, dan juga tidak ingin membiarkannya menjadi kekacauan tanpa kendali, maka harus menciptakan struktur identitas, aset, pembayaran, verifikasi, dan tata kelola yang baru.

Satu berbicara tentang penyakit.

Yang lain berbicara tentang organ. Keduanya diperlukan, tetapi keduanya bukan seluruhnya.

Ini menjelaskan mengapa kata Vitalik—“AI adalah mesin penggerak, manusia adalah kemudi”—begitu penting, tetapi juga begitu kurang memadai. Penting karena mengingatkan bahwa sistem yang lebih kuat tidak otomatis memiliki legitimasi; fungsi tujuan, penilaian nilai, dan batas akhir tidak boleh diserahkan kepada satu AI atau satu pusat tunggal. Kurangnya di sini adalah bahwa ia tidak menjawab pertanyaan yang lebih sulit: ketika sistem menjadi begitu kompleks sehingga manusia tunggal tidak mampu mengendalikan kemudi, apa yang harus dilakukan?

Jawabannya tidak bisa hanya dengan mengendalikan segala sesuatu secara mikro.

Jawabannya juga tidak bisa hanya berharap pada pusat yang lebih cerdas dan lebih baik hati.

Satu-satunya jawaban yang layak adalah menginstitusionalisasi “kemudi”: mengubah sebagian batasan menjadi pendaftaran identitas, akumulasi reputasi, kepemilikan aset, batas anggaran, bukti matematis, mekanisme tantangan, pencabutan otorisasi, dan logika hukuman.

Inilah alasan mengapa eksperimen sosial Web3 di era AI tiba-tiba menjadi sangat serius. Dulu banyak orang menganggapnya sebagai teknologi spekulatif di pinggiran; tetapi ketika kompleksitas sistem melampaui kemampuan pengelolaan langsung manusia, eksperimen tentang “apakah tatanan bisa bertahan tanpa kepercayaan terpusat” tidak lagi sekadar eksperimen sampingan. Mereka tiba-tiba menjadi simulasi awal.

Maka, ujung tajam artikel ini akhirnya muncul.

Wall Street ketakutan oleh sebuah artikel AI bukan karena mereka menyadari AI akan menggantikan pekerjaan pertama kali.

Wall Street ketakutan karena mereka pertama kali diingatkan secara sangat lugas: bahaya terbesar AI mungkin bukan membuat mesin menjadi seperti manusia, tetapi membuat sistem pendapatan, logika konsumsi, dan tatanan lama menjadi usang secara mendadak.

Jika Citrini benar, maka AI bukan hanya revolusi produktivitas, tetapi juga revolusi distribusi.

Jika Vitalik benar, maka AI bukan hanya masalah rekayasa, tetapi juga masalah kedaulatan. Jika LazAI setidaknya sebagian benar, maka kompetisi tahap berikutnya dalam AI bukan lagi soal kemampuan model, tetapi soal desain sistem.

Pertanyaan besar sebenarnya bukan lagi:

Apakah model akan semakin kuat?

Apakah agen akan semakin mandiri?

Apakah perusahaan akan melakukan PHK lebih banyak?

Pertanyaan besar yang sesungguhnya adalah:

Ketika ratusan juta agen ada di jaringan, siapa yang akan menulis konstitusi mereka?

Jika jawabannya platform, kita akan mendapatkan kekaisaran digital.

Jika jawabannya terminal, kita akan mendapatkan kekacauan berbiaya tinggi.

Jika jawabannya adalah seperangkat aturan yang dapat diverifikasi, dapat digabungkan, dapat dipertaruhkan, dan dapat dihukum, maka kita mulai mendekati kemungkinan lain: sebuah masyarakat cerdas yang tidak dikendalikan oleh penguasa yang lebih pintar, tetapi oleh sistem yang lebih baik.

Masalah terbesar di era AI bukanlah modelnya.

Adalah tatanannya.

Dan hari itu, yang sebenarnya dijual Wall Street bukan hanya saham.

Mereka menjual sebuah asumsi lama yang tampaknya tak perlu dipertanyakan: semakin sukses teknologi, semakin otomatis masyarakat akan menyerapnya.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan