元社員をAI化して業務継続 問われる「同意」と「責任の所在」
王延斌(科技日報記者) 2026年05月11日
中国山東省のゲーム・メディア企業が、退職した社員をAI(人工知能)デジタルヒューマンとして訓練し、引き続き業務に従事させる試みを行ったことで、社会的な議論を呼んでいる。
社員はAIに置き換えられるのか。AI分身が収益を生んだ場合やミスを起こした場合、その責任はどのように区分されるのか。山東省計算センター(国家スーパーコンピューティング済南センター)主任の呉暁明氏は、「これは社会的関心の焦点であり、最も曖昧にしてはならない問題だ。『十分な説明と同意』は出発点にすぎず、『技術的に可能』であることは決して『商業的に利用可能であり、法的にも問題がない』ことを意味しない」と述べた。
第一の問い:AIデジタルヒューマンはどう訓練するのか
呉氏によると、AIデジタルヒューマンの訓練は単に話せる仮想キャラクターを作ることではなく、人間の外面的表現、言語スタイル、知識構造、業務プロセスなどを機械が呼び出し、再利用できる「デジタル能力体」に変換することである。
呉氏は、「技術的には通常、4つの段階から構成される。第1段階はアバターモデリングであり、顔、表情、動作などの視覚的特徴を収集し、駆動可能なデジタルイメージを生成する。第2段階は音声再現で、音声サンプルを用いて声質、抑揚、リズムを学習させる。第3段階は知識注入で、個人が長年の業務で蓄積してきた専門知識やQ&Aデータ、表現の習慣、問題解決の論理を知識ベースや専用モデルとして構築する。第4段階はプロセス設計であり、デジタルヒューマンが単にある人物に似ているだけでなく、さまざまな場面で実際に業務を遂行できるようにすることだ。厳密に言えば、前の2段階は『似ているか否か』を解決し、後の2段階が『使えるか、使い勝手が良いか』を決める」と説明した。
山東大学情報通信電子人工知能研究院の常務副院長を務める韓忠義教授は、「基礎的なデジタルヒューマンの訓練自体は難しくなく、コストも外部が想像するほど高くはない」と指摘した。
しかし、企業がそれを「有能なデジタル社員」として活用しようとする場合、コストは決して低くない。韓氏は、「高いのは技術そのものだけでなく、データ整理、業務連携、事後メンテナンスであり、さらに重要なのはデジタルヒューマンの使用がコンプライアンスを遵守しなければならないことだ」と述べ、AIデジタルヒューマンに対するリスク管理への社会的懸念を示した。
第二の問い:AI分身がミスをした場合、責任は誰が負うのか
退職社員の同意があったとしても、AI分身が対外サービスで問題を起こした場合、その責任は誰に帰属するのか。斉魯工業大学数学・人工知能学部副主任の李彬氏は、「責任の区分は『社員が同意した』という一言で済ませてはならない」と強調する。
李氏は、「AI分身が対外サービスを提供する時点で、それは単なる内部実験ではなく、取引、情報伝達、組織ガバナンスの枠組みに入る。AI分身の市場参入には、少なくとも3つの権利の境界が関わる。第一は人格権の境界であり、氏名、肖像、声、プライバシー、名誉などが含まれる。第二は個人情報とデータの境界であり、どのようなデータを収集し、どのように訓練し、どのくらい保存し、再利用が可能かといった問題である。第三は労働成果と商業利益の境界であり、社員が長年蓄積した経験や話術、方法論のうち、どこまでが個人の特性に属し、どこまでが職務上の成果なのか、どれが使用許諾可能で、どれが無制限に拡張できないのかという問題である」と述べる。
李氏は、「『中華人民共和国個人情報保護法』は個人情報の処理に明確かつ合理的な目的と最小必要原則を求めており、『中華人民共和国民法典』人格権編も氏名、肖像、名誉、プライバシーなどの権利を明確に保護している。さらに、深層合成や生成AIのガバナンスに関する規則も、サービスの提供者に対して、コンテンツ審査、データセキュリティ、個人情報保護などの責任を求めている」と指摘した。
さらに、「たとえ許諾があっても、『無制限に複製し、永久に使用し、自由に収益化できる』わけではない。AI分身が対外サービスを提供する場合、収益と責任は『システムを管理する者、ルールを設定する者、利益を得る者が主たる責任を負う』という原則で区分されるべきだ」と語った。
第三の問い:AI分身は新たな職場モデルを生み出すのか
AI分身に基礎的な事務作業を担わせることで、新たな職場モデルを生み出すのか。この問いに対し、取材に応じた専門家の多くは肯定的な見方を示している。
呉氏は、「この変化は単なる『AIによる人間の代替』ではなく、『人間と機械の協働による職務再構築』と理解すべきだ。AI分身は特定の個人を置き換えるだけでなく、業務を『本人が直接行う』形から、『本人がルールを設計し、システムを訓練し、結果を監督し、最終責任を負う』形へと転換させる。この観点から、『デジタル社員トレーナー』『業界知識アノテーター』『ヒューマンマシン協働プロセス設計者』『AIリスク管理・審査者』といった新たな職種が生まれる可能性がある」と述べた。
韓氏は、「新しい職種の出現は機械が人間を一気に置き換えることを意味するのではなく、まずAIが処理し、その後人間が判断・検証・最終責任を担う形に変わる。職務分担や管理方式も変化し、企業は従業員がどれだけ作業したかだけでなく、AIをいかに活用・管理できるかも重視するようになる」と話す。
韓氏は、「ただし、新たなモデルは効率を高める一方で、一部の初級職を圧縮する可能性もある。本来奨励されるべき方向は、人間をいつでも複製可能な道具にすることではなく、反復作業をAIに担わせ、人間をより判断力や責任が求められる業務へと移行させることだ」と指摘した。
呉氏は、「結局のところ、AIが最も追求すべきは、より効率的で公平、かつ人間を尊重するインテリジェントな生産体系の構築だ」と述べた。
※本稿は、科技日報「离职员工成AI数字人,专家认为:"技术可行"不等于"法律无虞"」(2026年4月9日付)を科技日報の許諾を得て日本語訳/転載したものである。
