Berita Gate News, pada 17 Maret, Anthropic mengumumkan lowongan pekerjaan di LinkedIn untuk posisi “Manajer Kebijakan Senjata Kimia dan Eksplosif Berkapasitas Tinggi”. Pelamar harus memiliki minimal 5 tahun pengalaman dalam pertahanan terhadap senjata kimia dan/atau bahan peledak, serta memahami perangkat penyebaran radioaktif (bom kotor). Anthropic menyatakan bahwa posisi ini bertujuan untuk mencegah AI mereka, Claude, digunakan untuk “penyalahgunaan yang katastrofik”, khawatir Claude mungkin digunakan untuk memperoleh informasi tentang pembuatan senjata kimia atau radioaktif, dan membutuhkan penilaian dari para ahli apakah langkah pengamanan yang ada sudah cukup ketat. Perusahaan AI lain juga memposting posisi serupa di halaman rekrutmen mereka, sebagai Peneliti Risiko Biologi dan Kimia, dengan gaji tahunan hingga 455.000 dolar AS. Menanggapi hal ini, Dr. Stephanie Hare, co-host acara BBC “AI Decoded” dan peneliti teknologi, mempertanyakan: “Apakah benar aman bagi sistem AI untuk menangani informasi sensitif tentang bahan kimia, bahan peledak, dan senjata radioaktif? Bahkan jika AI diperintahkan untuk tidak menggunakan informasi tersebut.” Dia juga menunjukkan bahwa saat ini tidak ada perjanjian internasional atau regulasi yang mengatur pekerjaan semacam ini serta penggunaan AI dalam kombinasi dengan senjata semacam itu, “semuanya berlangsung di luar pengawasan publik.”