米国シンクタンク「カーネギー国際平和基金(Carnegie Endowment for International Peace)」のインドの政策シンクタンク、カーネギー・インディア(Carnegie India)は、インドにおける人工知能(AI)規制について政府、産業界、市民社会の関係者からの意見を踏まえて包括的に分析し、インドが取るべきAI規制アプローチについて提言する論文を公表した。
AIをどのように規制すべきかについては、欧州連合(EU)の包括的なAI規制法から中国の技術分野別のルール、米国の自主的なコミットメントまで、各国・地域で異なるアプローチが取られている。同論文は、数カ月にわたる主要関係者とのディスカッションに基づき、インドにおけるAI規制の現状と今後たどるべき道筋を明らかにすることを目的として4部構成で作成された。
まず第1部では、AI規制に対するインドの政府、産業界、市民社会の現在の考え方を分析し、少なくとも現時点では包括的なAI法は必要ないという広い合意があると指摘している。第2部では、AI規制の範囲と目的、AIリスクの性質、追加のAI規制が必要な分野を検証し、インドのAI規制の枠組みを検討する上で重要なAIリスクとして、「悪意のある使用」「アルゴリズムによる差別」「透明性の欠如」「システミックリスク」「人間によるコントロールの欠如」という5つのカテゴリーを提示している。第3部では世界各国のAI規制アプローチを比較分析し、インドのような発展途上国では、規制のコストや実施能力を考慮し、向こう半年~1年ぐらいは自主規制を基本とすることを提言している。こうした議論を踏まえ第4部では、AI規制に関するインドの政策ロードマップを提案している。
最後に同論文では、AI規制は参加型の包摂的な方法で制定すべきと主張し、インド政府に対し、AI規制に関する取り組みを続ける前に、一連のコンサルテーションを実施するよう求めている。
(2024年11月21日付発表)
サイエンスポータルアジアパシフィック編集部