米国シンクタンク「カーネギー国際平和基金(Carnegie Endowment for International Peace)」は9月13日、AIが国際安全保障にもたらす深刻なリスクの軽減を図る枠組みとなる「If-then」コミットメントを包括的に紹介する論文を公開した。
同論文によれば、If-thenコミットメントとは、「AIモデルが能力Xを持つ場合、リスク軽減策Yを講じなければならない。必要であれば、AIの導入や開発を遅らせ、リスク軽減策が間に合うようにする」という形式で表明される誓約である。具体例を挙げると、AIモデルが大量破壊兵器の製造方法を初心者にも分かるように説明する能力を持つ場合、AI開発者は、消費者がAIモデルからこの種の回答を容易に得られないような対策を講じなければならない。
AI業界を先導するGoogle DeepMind、OpenAI、Anthropicの3社は、このIf-thenルールに則った詳細な枠組みを公表しており、他にも16社が2025年にフランスで開催されるAIアクションサミットまでに同様の枠組みを確立する意向を表明している。
同論文は、こうしたIf-thenコミットメントのメリットと、枠組みの設計・運用・評価の側面を詳しく論じるとともに、AI開発者による自主的なコミットメントだけではリスクを低く抑えることは難しく、規制や場合によっては国際的な調整も必要になると指摘している。その上で、強制力のある堅固なIf-thenコミットメントの実現に向け、AI開発者、関連分野の専門家、政策立案者などさまざまな関係者が取りうる具体的な行動を提言している。
サイエンスポータルアジアパシフィック編集部