Komputasi Rahasia Adalah Cara AI Mendapatkan Kembali Kepercayaan Yang Sudah Hilang — Dan Mengapa Ini Perlu Menjadi Standar Baru

Secara Singkat

Saat adopsi AI melampaui kepercayaan publik, Ahmad Shadid dari ORGN berpendapat bahwa komputasi rahasia dan eksekusi verifikasi menawarkan bukti kriptografi yang tidak dapat diberikan oleh kebijakan privasi saja.

Why AI's Trust Problem Will Not Be Solved By Better Privacy Policies — And What Cryptographic Proof Can Do Instead

Sistem AI bergerak cepat ke dalam alur kerja yang sensitif — menulis kode, menangani data pelanggan, dan mendukung pengambilan keputusan di sektor yang diatur seperti keuangan dan kesehatan. Kecepatan integrasi ini menciptakan masalah struktural yang belum cukup ditangani oleh industri.

Tantangannya adalah kepercayaan. Sebuah studi yang dilakukan oleh University of Melbourne bekerja sama dengan KPMG, yang mensurvei lebih dari 48.000 orang di 47 negara, menemukan bahwa meskipun 66% responden menggunakan AI secara rutin, kurang dari setengah — hanya 46% — mengatakan mereka bersedia mempercayai sistem AI. Penggunaan dan kepercayaan bergerak ke arah yang berlawanan, dan kesenjangan di antara keduanya semakin melebar.

Dimensi privasi data dari defisit kepercayaan ini sangat tajam. Menurut AI Index Stanford 2025, kepercayaan global bahwa perusahaan AI melindungi data pribadi turun dari 50% pada 2023 menjadi 47% pada 2024, sementara lebih sedikit orang yang percaya bahwa sistem AI tidak bias dan bebas diskriminasi dibandingkan tahun sebelumnya. Penurunan ini terjadi tepat saat AI semakin menyatu dalam kehidupan sehari-hari dan lingkungan profesional, sehingga risiko dari kepercayaan yang salah tempat menjadi jauh lebih tinggi.

Ahmad Shadid, CEO ORGN, lingkungan pengembangan rahasia pertama di dunia, berpendapat bahwa fase berikutnya dari AI tidak akan dibangun berdasarkan kepercayaan — melainkan berdasarkan bukti. Komputasi rahasia dan eksekusi verifikasi memungkinkan untuk menunjukkan secara tepat bagaimana data diproses, bukan hanya menjanjikan bahwa data tersebut aman.

Dalam percakapan dengan MPost, dia menjelaskan bagaimana teknologi ini mengatasi kesenjangan privasi dan kepercayaan yang ditinggalkan oleh langkah-langkah keamanan konvensional dalam alur kerja AI, dan apa yang diperlukan agar teknologi ini menjadi arus utama.

Bagaimana Perusahaan AI Melindungi Data Saat Ini — Dan Mengapa Itu Tidak Cukup

Sebagian besar perusahaan AI saat ini mengandalkan kombinasi enkripsi, kontrol akses, dan kebijakan tata kelola untuk melindungi data sensitif. Enkripsi diterapkan pada data saat diam dan saat transit menggunakan algoritma yang sudah mapan, sementara kontrol akses berbasis peran, pencatatan, dan deteksi anomali mengatur siapa yang dapat berinteraksi dengan sistem dan dalam kondisi apa. Langkah-langkah ini merupakan standar industri, dan untuk banyak kasus penggunaan, mereka sudah cukup.

Masalah muncul pada saat tertentu yang spesifik dan sering diabaikan: saat data didekripsi di dalam memori untuk pelatihan model atau inferensi. Pada titik ini, celah eksposur terbuka. Komputasi rahasia mengatasi ini secara langsung dengan mengenkripsi data saat diproses secara aktif, di dalam perangkat keras itu sendiri, sehingga bahkan operator infrastruktur tidak dapat melihat apa yang terjadi di dalam mesin.

Shadid mengidentifikasi kerentanan struktural yang tidak sepenuhnya tertutup oleh pendekatan keamanan standar. Ketika data didekripsi di server yang tidak dikendalikan langsung oleh pelanggan — misalnya di lingkungan cloud publik atau platform AI pihak ketiga — pelanggan tidak memiliki cara teknis untuk memverifikasi apa yang sebenarnya terjadi padanya. Mereka, dalam praktiknya, bergantung pada kata vendor.

Kekhawatiran ini tidak terbatas pada pengguna akhir. Di lingkungan yang diatur, CISO, auditor kepatuhan, dan regulator menghadapi masalah yang sama. Mereka biasanya mengandalkan sertifikat ISO 27001, laporan SOC 2, dan dokumen kebijakan — instrumen yang, seperti yang dikatakan Shadid, lebih membuktikan niat daripada apa yang sebenarnya terjadi pada data saat digunakan. Komputasi rahasia dengan attestasi mengubah hal ini dengan menyediakan bukti kriptografi yang tahan terhadap gangguan bahwa versi model tertentu dijalankan di lingkungan eksekusi terpercaya yang disetujui dengan tumpukan perangkat lunak yang disetujui. Jaminan beralih dari niat yang didokumentasikan ke fakta teknis yang dapat diverifikasi.

Momentum regulasi di balik perubahan ini sudah terlihat. Menurut Studi Komputasi Rahasia IDC Juli 2025, pengenalan Undang-Undang Resiliensi Operasional Digital UE menyebabkan 77% organisasi menjadi lebih mungkin mempertimbangkan komputasi rahasia, dengan 75% sudah mengadopsinya dalam beberapa bentuk. Manfaat utama yang dilaporkan adalah peningkatan integritas data, jaminan kerahasiaan yang terbukti, dan kepatuhan regulasi yang lebih kuat.

Apa Artinya Eksekusi Verifikasi dalam Praktek

Bagi audiens non-teknis, Shadid menggambarkan eksekusi verifikasi sebagai menerima tanda terima kriptografi setelah sistem AI memproses data. Tanda terima ini menunjukkan, secara matematis dapat diverifikasi, bahwa AI dijalankan di perangkat keras bersertifikat asli, bahwa ia mengeksekusi versi perangkat lunak yang diharapkan dan tidak ada yang lain bersamaan, serta bahwa lingkungan tersebut diamankan dengan baik sebelum data sensitif dibuka. Integritas proses ini tidak lagi bergantung pada kepercayaan terhadap jaminan penyedia — melainkan pada verifikasi bukti.

Secara teknis, ini dicapai melalui tiga mekanisme yang saling terkait. Lingkungan eksekusi terpercaya, atau TEE, memungkinkan prosesor untuk membuat enclave tertutup — memori dan eksekusi yang diisolasi di tingkat silikon — sehingga baik sistem operasi, hypervisor, maupun operator cloud tidak dapat membaca apa yang terjadi di dalamnya. Attestasi jarak jauh kemudian memungkinkan pihak eksternal memverifikasi bahwa TEE asli menjalankan tumpukan perangkat lunak yang disetujui sebelum kunci dekripsi atau input sensitif dilepaskan. Akhirnya, output yang dapat diverifikasi memungkinkan beberapa sistem menandatangani hasilnya dengan sertifikat terkait attestasi, sehingga siapa pun yang menerima hasil tersebut dapat memastikan bahwa itu berasal dari aplikasi yang diharapkan di lingkungan terlindungi dan tidak diubah selama pengiriman.

Shadid berpendapat bahwa keunggulan komputasi rahasia meluas ke seluruh rantai nilai AI. Pengembang AI mendapatkan kemampuan untuk melatih dan menjalankan model pada dataset sensitif atau yang diatur di lingkungan cloud bersama tanpa mengekspos data mentah ke operator platform. Bagi perusahaan, teknologi ini mengurangi risiko hukum dan reputasi dengan menyediakan bukti yang dapat didemonstrasikan bahwa data pribadi tetap terlindungi selama proses AI — mendukung persyaratan privasi setara GDPR dan regulasi sektor tertentu. Ini juga membuka peluang kolaborasi data antar organisasi, karena masing-masing pihak dapat memverifikasi bahwa datanya hanya diproses di lingkungan yang disetujui dan sesuai kebijakan, menghilangkan salah satu hambatan utama untuk proyek AI bersama.

Bagi pengguna akhir, manfaatnya adalah jaminan yang lebih kuat dan nyata bahwa data pribadi mereka tidak dapat diakses oleh operator, orang dalam, atau penyewa cloud lain saat sistem AI berjalan. Ini juga memungkinkan layanan bernilai tinggi — misalnya, panduan kesehatan pribadi atau saran keuangan terperinci — yang sebelumnya dianggap terlalu sensitif untuk disampaikan melalui infrastruktur cloud.

Shadid mengacu pada pengalamannya sendiri sebagai insinyur perangkat lunak untuk menggambarkan salah satu risiko yang kurang dibahas. Pengembang secara rutin menempelkan kode kepemilikan, file konfigurasi, kunci API, dan token ke alat pengkodean AI, sering kali dengan visibilitas terbatas terhadap bagaimana data tersebut disimpan atau digunakan. Kecepatan industri membuat alat ini sulit dihindari. Ketegangan ini — kebutuhan untuk bergerak cepat sambil menyadari risiko eksposur IP — mendorongnya membangun ORGN, lingkungan pengembangan rahasia yang dibangun berdasarkan prinsip komputasi rahasia.

Mengapa Adopsi Masal Belum Terjadi

Meskipun 75% perusahaan mengadopsi dalam beberapa bentuk, studi IDC menemukan bahwa hanya 18% organisasi yang telah mengintegrasikan komputasi rahasia ke dalam lingkungan produksi. Shadid mengidentifikasi tiga hambatan utama: kompleksitas validasi attestasi, persepsi teknologi ini sebagai niche, dan kekurangan insinyur dengan keahlian relevan.

Validasi attestasi, jelasnya, jauh lebih rumit secara praktik daripada yang terlihat di atas kertas. Bukti attestasi muncul sebagai struktur biner atau objek JSON yang berisi pengukuran, sertifikat, dan collateral yang harus diparse, diperiksa terhadap akar vendor, dan divalidasi untuk keaslian dan pencabutan. Pengembang kemudian harus menentukan apa yang dianggap terpercaya — firmware versi apa, hash gambar apa, dan pengukuran aplikasi apa yang dapat diterima — dan mengintegrasikan logika tersebut ke dalam kontrol plane mereka sendiri atau sistem manajemen kunci. Penyedia cloud besar seperti AWS, Azure, dan Oracle sudah menawarkan komputasi rahasia dengan biaya yang secara umum sebanding dengan infrastruktur standar, jadi hambatannya bukan akses atau harga. Melainkan kedalaman rekayasa yang diperlukan untuk mengoperasionalkan attestasi dengan benar.

Pandangan Shadid adalah bahwa adopsi yang lebih luas akan bergantung pada tiga kekuatan yang bersinergi. Pertama, validasi attestasi harus menjadi jauh lebih mudah diakses, baik melalui standarisasi maupun melalui alat sumber terbuka yang menyederhanakan kompleksitas bagi tim pengembangan. Kedua, tekanan regulasi akan terus mendorong adopsi seperti yang sudah dilakukan DORA — jika kerangka kerja di sektor lain mengikuti trajektori serupa, alasan bisnis untuk komputasi rahasia akan semakin sulit diabaikan. Ketiga, dan mungkin yang paling mendasar, kesadaran publik tentang apa yang terjadi pada data di dalam sistem AI perlu meningkat. Sebagian besar orang, kata Shadid, tidak memiliki gambaran yang jelas tentang apa yang terjadi saat mereka mengirimkan prompt ke alat AI konsumen. Kesadaran yang lebih besar tentang eksposur tersebut — di kalangan pengembang dan pengguna umum — akan menghasilkan tekanan sosial yang mempercepat adopsi jauh lebih efektif daripada argumen teknis saja.

Melihat ke depan, dia menyarankan bahwa jika komputasi rahasia dan eksekusi verifikasi menjadi infrastruktur default, cara layanan AI dirancang, dijual, dan diatur akan berubah secara signifikan. Pelanggan akan menerima bukti kriptografi tentang bagaimana data mereka diproses daripada jaminan kebijakan, memungkinkan perusahaan menunjukkan kepatuhan kepada regulator dan dewan secara konkret daripada dokumen. Analogi yang dia buat adalah enkripsi penyimpanan dan jaringan, yang beralih dari langkah keamanan opsional menjadi standar dasar secara cepat. Arah untuk eksekusi rahasia, katanya, sama — dan begitu tiba, setiap inferensi, setiap pekerjaan penyetelan halus, dan setiap pertukaran data akan membawa attestasi kriptografi, menjadikan integritas pipeline sebagai fakta yang dapat diverifikasi daripada kepercayaan institusional.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan