オーストラリア連邦科学産業研究機構(CSIRO)は8月11日、同機構の研究者がサイバーセキュリティ研究機関Cyber Security Cooperative Research Centre(CSCRC)とシカゴ大学と協力して、画像ベースのコンテンツから学習する不正な人工知能(AI)システムを阻止する新しい技術を開発したと発表した。

この技術は、アーティストや組織、ソーシャルメディアユーザーが作品やデータをAIのトレーニングやディープフェイクの作成に使用されるのを防止する。例えば、ソーシャルメディアユーザーは、自動で投稿前の写真の保護を行い、AIがディープフェイク作成のために顔の特徴を学習するのを防ぐことができる。同様に、防衛機関は、機密性の高い衛星画像やサイバー攻撃の脅威にさらされるデータをAIモデルに取り込まれるのを防止できる。これは、保護されたコンテンツからAIが学習できる内容を制限することができ、適応型攻撃や再トレーニングの試みに対しても機能する。

コンテンツをオンラインにアップロードする前に「ノイズ」保護を追加
(出典:いずれもCSIRO)
この技術を報告した論文「Provably Unlearnable Data Examples」は、2025年のネットワークと分散システムセキュリティシンポジウム(NDSS)で発表され、優秀論文賞を受賞した。
この方法は、テキストや音楽、ビデオにも拡大させる予定がある。これはまだ理論の段階であり、管理された実験室で検証が進められているが、コードは学術用途にGitHubで入手することができる。研究チームは、AIの安全性と倫理、防衛、サイバーセキュリティ、学界などの分野から研究パートナーを探している。
CSIROの科学者であるワン・デルイ(Derui Wang)博士は、「既存の方法は、AIモデルがどのように動作するかは試行錯誤や仮定に依存しています。私たちのアプローチは、不正な機械学習モデルが特定の閾値を超えてコンテンツから学習できないことを数学的に保証します。これは、ソーシャルメディアユーザーやコンテンツクリエイター、組織にとって強力な保護手段になります」と述べた。
サイエンスポータルアジアパシフィック編集部