韓国の科学技術情報通信部(MSIT)は2月25日、人工知能(AI)の透明性確保義務の具体的な運用方法を定めた「AI透明性確保ガイドライン」を公表した。
同ガイドラインは、2025年1月21日に成立した「人工知能の発展および信頼できる基盤の構築に関する基本法」(AI基本法)第31条「AI透明性確保義務」の実施方法を具体化したものである。同法はAI産業の振興とAI技術の安全な利用基盤の整備を目的とし、2026年1月22日に施行された。ただし制度導入初期の混乱を避けるため、少なくとも1年間の猶予期間が設けられ、この期間中は透明性規定に基づく事実調査や罰則の適用は行われない。
AI業界からは、同法や施行令だけでは透明性義務の適用方法が十分に明確ではないとの指摘があった。これを受けMSITは2025年9月にガイドライン案を公表し、産業界からの意見を踏まえて、現在市場で提供されているAI製品やサービスの種類を基に実施基準を策定した。
ガイドラインは、AIへの信頼確保と企業の負担軽減の両立を目指している。特に社会的懸念が高まっているAI生成コンテンツ(ディープフェイク)については、利用者がAI生成コンテンツであることを認識できるよう明確な表示を求めている。
またAI生成コンテンツの表示方法については、サービス環境内で表示される場合と、ダウンロードなどによりサービス環境外へ配布される場合を区別した。サービス環境内ではUI表示やロゴなど柔軟な表示が認められる一方、サービス環境外へ配布される場合は透かし表示など人が識別できる方法、またはメタデータなど機械判読可能な方法による表示が求められる。
さらにガイドラインでは、利用者に直接AI製品やサービスを提供する「AI事業者」を透明性義務の対象とした。韓国の利用者にAIサービスを提供する海外企業も対象となる。一方、AIを業務や創作活動のツールとして利用する者は対象には含まれない。
透明性確保義務は、(1)生成AIなどを用いた製品・サービスであることを利用前に通知する義務、(2)生成AIで作成されたコンテンツであることを表示する義務の2つで構成される。
サイエンスポータルアジアパシフィック編集部