Gate News Nachrichten, am 17. März veröffentlichte Anthropic auf LinkedIn die Stelle „Policy Manager für chemische Waffen und hochexplosive Sprengstoffe“, wobei Bewerber mindestens 5 Jahre Erfahrung im Bereich chemischer Waffen und/oder Sprengstoffschutz vorweisen müssen und Kenntnisse über radioaktive Streueinrichtungen (Dirty Bombs) haben sollten. Anthropic erklärte, dass diese Position dazu dient, zu verhindern, dass ihre KI-Werkzeuge Claude für „katastrophale Missbräuche“ verwendet werden. Es besteht die Befürchtung, dass Claude genutzt werden könnte, um Informationen zur Herstellung chemischer oder radioaktiver Waffen zu erhalten, weshalb Experten die bestehenden Sicherheitsmaßnahmen auf ihre Wirksamkeit prüfen sollen. Ein weiteres KI-Unternehmen veröffentlicht auf seiner Karriereseite eine ähnliche Stelle, die sich an Forscher im Bereich biologischer und chemischer Risiken richtet, mit einem Höchstgehalt von bis zu 455.000 US-Dollar. Dazu äußerte sich Dr. Stephanie Hare, Co-Moderatorin der BBC-Sendung „AI Decoded“ und Wissenschaftlerin, skeptisch: „Ist es wirklich sicher, KI-Systeme mit sensiblen Informationen über chemische Stoffe, Sprengstoffe und radioaktive Waffen zu behandeln? Selbst wenn die KI angewiesen wird, diese Informationen nicht zu verwenden.“ Sie wies außerdem darauf hin, dass es derzeit keine internationalen Abkommen oder Vorschriften gibt, die solche Arbeiten sowie die Verbindung von KI mit solchen Waffen regeln. „All dies findet außerhalb der Öffentlichkeit statt.“