人工知能の安全性に対する懸念が高まる中、OpenAIは新たな上級職を採用し、技術の高度な発展による潜在的リスクを事前に検知・対応することを開始しました。この職位は「準備事務責任者」と呼ばれ、AIモデルが引き起こす可能性のある危害の事前識別、内部ポリシーの策定、モデル公開方法への影響といった中核的な役割を担います。
この職位はOpenAIの「準備フレームワーク」の実行をリードし、AIが社会やシステムに及ぼす悪用の可能性、サイバーセキュリティの脅威、広範な社会的影響などを監視・評価します。実際のフレームワークはOpenAIの研究、政策、製品部門と密接に連携し、新モデルのリリース時期や方法の決定に実質的な影響を与えます。
今回の採用はセキュリティシステム部門で行われ、責任者は脅威モデリングの構築、機能能力の測定、リスク基準の策定、展開制限条件の設定などを総括します。OpenAIは明確に示しており、この準備事務責任者の職位には高い要求があり、大規模な技術システム、危機管理、安全・ガバナンスの実務経験が必要です。基本年俸は55万ドル(約7.9億円)で、株式オプションも提供されます。
OpenAIの今回の人事強化は、内部リーダーシップの交代後の空席を埋める戦略の一環でもあります。2024年中旬に前任の準備事務責任者アレクサンダー・マドリが退職し、その後任としてホアキン・キニョネロ・カンドラとリリアン・オングも退職または他部署へ異動し、準備組織の空席が長期化しています。
OpenAIのCEOサム・オルトマンも最近のインタビューでこの職位の重要性を強調し、「モデルの能力が向上するにつれ、準備組織は内部で最も重要な役割の一つ」と述べています。彼は、関連システムが適切に運用されて初めて、人工知能が引き起こす社会的副作用を効果的に管理できるとしています。
業界全体のAI悪用に対する懸念も、この採用の背景を支えています。特にAIを利用したサイバー攻撃、ソフトウェアの脆弱性の悪用、ユーザー層の心理的健康への影響などが主要なリスクとして挙げられています。OpenAIは昨年10月、数百万のユーザーがChatGPTを通じて深刻な心理的苦痛を訴える内容を公開し、AIと心理健康問題の交差点に対する責任意識を示しました。当時、同社はChatGPTが苦痛の根源ではないと指摘しつつも、敏感な悩みをAIと共有するケースが急増していることに注意を促しました。
OpenAIの取り組みは規制当局や業界からも注目を集めています。最先端のAI技術の影響力が急速に拡大する中、準備組織の強化は単なる人員補充にとどまらず、AIエコシステム全体の信頼回復と社会的受容を得るための布石と解釈されています。