インド政府首席科学顧問室(OPSA)は1月23日、技術法的枠組みを通じて人工知能(AI)ガバナンスを強化する方針を整理した白書を公表し、信頼性と説明責任を備え、イノベーションと整合したAIエコシステム構築に向けた考え方を示した。
本白書の正式名称は「Strengthening AI Governance Through Techno-Legal Framework」であり、AIのリスクを軽減しつつ柔軟性とイノベーションを維持することを目的とした「技術法的(テクノリーガル)」アプローチの枠組みを整理している。OPSAは、AIガバナンスを法制度のみで捉えるのではなく、技術的管理や制度的メカニズムを組み合わせ、設計段階から組み込む必要があるとしている。
同白書では、インドのAIガバナンスにおける基本的な法的セーフガード、分野別規制、技術的コントロール、制度的仕組みを統合的に運用する考え方が示されている。技術法的アプローチは、AIシステムの設計および運用にガバナンスを標準的に組み込む、実践的かつエコシステム全体を対象としたモデルと位置付けられている。
取り上げられている主な論点には、AIガバナンスにおける技術法的アプローチの整理、AIライフサイクル全体を通じた安全性と信頼性の確保、技術法的ガバナンスを運用するための技術的手段、インドのAIガバナンス枠組みの実装に関する論点、ならびに技術法的ツールやコンプライアンス手法の検討が含まれる。
公表に際し、インド政府首席科学顧問のアジェイ・クマール・スード(Ajay Kumar Sood)教授は、「堅牢で対応力のあるガバナンス枠組みの構築は、規制上の必要性にとどまらず、技術進歩の勢いを維持するための前提条件です。技術法的アプローチは、AIシステムに法的、技術的、制度的な安全策を設計段階から組み込む道筋を示します」と述べている。
サイエンスポータルアジアパシフィック編集部