Studi Menemukan Bahwa AI Adalah Kekhawatiran Keamanan Siber Teratas Organisasi

Lebih dari separuh organisasi saat ini menilai kecerdasan buatan generatif sebagai ancaman keamanan terbesar mereka, mengungguli pencurian kredensial. Meningkatnya serangan berbasis AI—dari deepfake hingga phishing yang sangat dipersonalisasi—mengubah lanskap keamanan siber, dengan kecepatan dan skala yang mengatasi pertahanan tradisional.

Menurut The State of Passwordless Identity Assurance, sebuah studi dari HYPR, AI generatif dan AI agenik memungkinkan bentuk serangan baru, termasuk deepfake dan impersonasi karyawan. Studi tersebut menemukan bahwa hampir dua pertiga organisasi yang disurvei telah menjadi target email phishing yang dipersonalisasi—pesan yang dihasilkan AI yang dirancang untuk meniru eksekutif—menunjukkan seberapa cepat ancaman ini berkembang.

Phishing adalah jenis serangan siber paling umum yang dihadapi organisasi dalam 12 bulan terakhir, diikuti oleh malware dan ransomware. Temuan ini sejalan dengan studi dari Cofense, yang menemukan bahwa tingkat serangan phishing semakin cepat, dengan filter spam menandai satu email phishing setiap 19 detik pada tahun 2025, meningkat dari satu setiap 42 detik tahun sebelumnya.

Kecepatan adalah kunci

Hampir 40% responden melaporkan mengalami beberapa bentuk insiden keamanan terkait AI generatif dalam 12 bulan terakhir. Kekhawatiran semakin meningkat, karena 43% responden mengidentifikasi serangan berbasis AI sebagai perubahan paling signifikan dalam keamanan siber selama setahun terakhir.

Namun terlalu banyak organisasi yang masih bereaksi hanya setelah kerusakan terjadi. Tiga dari lima responden mengatakan mereka telah membayar “pajak pandang ke belakang”, meningkatkan anggaran keamanan siber mereka hanya setelah terjadi pelanggaran.

Di era AI, pendekatan itu tidak lagi cukup. AI telah meningkatkan skala, kecepatan, dan efektivitas phishing serta serangan siber lainnya. Sementara sebagian besar serangan berbasis identitas terdeteksi dalam beberapa jam, otomatisasi berbasis AI memungkinkan data dicuri sebelum intervensi manusia dapat dilakukan.

Ancaman dari AI Agenik

Risiko baru lainnya, perdagangan agenik, juga menjadi berita utama. Menurut HYPR, agen otomatis diperkirakan akan membocorkan lebih banyak kata sandi daripada manusia tahun ini, di tengah meningkatnya laporan tentang agen yang menjadi rogue.

Perusahaan keamanan AI Irregular baru-baru ini melakukan pengujian di mana agen AI diperintahkan untuk membuat posting LinkedIn menggunakan materi dari basis data internal perusahaan. Agen tersebut menghindari protokol anti-hacking dan akhirnya mempublikasikan informasi kata sandi yang sensitif. Dalam kasus lain, agen AI melewati perangkat lunak antivirus untuk mengunduh file yang berisi malware.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan