あらゆるところに存在する人工知能(AI)は、倫理的に正しくなければならない。一部の人にとって、倫理的 AI への道は、どのような言葉を使うかということから開始する。
デベシュ・ナラヤナン (Devesh Narayanan) 氏が最初にいらだちを感じたのは、イスラエルにいたときだった。2018 年、シンガポールの大学で工学を学んでいた3 年目に、ナラヤナン氏は海外の起業家プログラムに参加し、イスラエルでドローン防衛技術を学んだ。ナラヤナン氏は Asian Scientist Magazine とのインタビューで「これらのプログラムは、技術を使って世界を救うことについて非常に積極的な姿勢を見せています」と述べた。
ただ、ナラヤナン氏は 「いつも少し虚しさを感じていました」とも語る。ドローンの研究をしているうちに、自分自身が不安になっていることに気がついた。彼の研究の中の道徳的な部分は、指導教官が話す厳格かつ客観的な技術用語により隠されているようだった。
ナラヤナン氏は続ける。「ドローンでは、『これらの座標を守る』などといったことを行うように指示する技術的なプロンプトが表示されます。ドローンを敵地で捕らえることなく戦わせることであれば、これは技術的に必要なことと思います。しかし、技術設計のレベルでは、道徳的で政治的な考えは見えないのです」
ナラヤナン氏はこの経験から、エンジニアは技術的な問題を解決することに没頭するため、自分の仕事の道徳的問題や政治的問題を見落とすことが多いことを実感した。
こうした疑問が工学のシラバスからは解決できないことが分かると、ナラヤナン氏は答えを求めて道徳哲学の教科書と授業に目を向けた。 その好奇心から、現在のナラヤナン氏は技術倫理の専門家となっている。シンガポール国立大学(NUS)の「人類のためのAI技術センター」 (AiTH) の研究助手として、彼はAI の倫理と、AI が倫理的であるとはどういう意味かを研究している。
AiTH では、研究者が AI に責任を持たせる方法と、責任を持たない場合に発生することを解明しようとしているが、このような場所はアジアに数多く存在する。
ヒポクラテスの誓いから胚性幹細胞に関する議論、そして今日のデータプライバシーとワクチン接種の公平性に関する問題に至るまで、科学の発展と倫理観は常に手を携えて進んできた。
しかし、技術が倫理的であるとは何を意味するのか? 米国マンハッタンを拠点に将来の技術をよいものとすることを活動目的としている非営利団体 All Tech is Human によると、責任ある科学技術は「デジタル技術の開発と展開を、個人と社会の価値観と期待にうまく合わせる」必要がある。言い換えれば、責任ある科学技術は、あらゆる人に対する害悪を減らし、利益を増やすことを目的としている。
科学技術が人間社会を変え続ける中、その変化のほとんどの原因となるのはAIである。AIアルゴリズムは目に見えることはないが、あらゆるところに存在し、e コマースのおすすめやSNSのフィード表示を作り上げる。このようなアルゴリズムは、司法や金融システムなどといった重要な事項にも多く使用されてきている。2020 年のはじめ、マレーシアの裁判所は、判決の迅速性と一貫性を高めることを目的として、AI ツールの試用を開始した。弁護士たちやマレーシア弁護士会は、アルゴリズムの機能に関する十分な指針も理解もなくその技術を展開することの倫理性について懸念を表明したが、裁判は行われた。
政府が開発したこのツールは、2種類の犯罪(薬物所持とレイプ)で試行され、2014 年から 2019 年までの事件のデータを分析して、裁判官が検討すべき量刑についての助言事項を作成した。マレーシアの研究機関であるカザナー研究所の報告書によると、裁判官は AI の助言事項の 3 分の 1 を受け入れた。 この報告書は、アルゴリズムのトレーニングに使用されたデータセットは5 年間だけに限られたものであること、そして社会的に取り残された人々や少数派の人々に対するバイアスのリスクがあることにも注目している。
銀行融資申請の承認や臨床診断など、他のことでも意思決定 AI を使用すると、同様の倫理的問題が生じる。
AI が行える意思決定は何か?
行うべきでない意思決定は何か?
そもそもAIが下した決定を信頼できるのか?
研究者は、機械そのものは道徳的判断を下す能力がないと主張している。そのため、責任は判断を下す人間が引き受けることとなる。
意思決定を AI に任せると、そのリスクは途方もないものになるかもしれない。シンガポール国立大学(NUS)のコンピューター・サイエンス教授であるレザ・ショクリ (Reza Shokri) 博士は、AI は、信頼性が高く、明確に説明可能な機械学習アルゴリズムに基づいて構築されている場合にのみ、重要な意思決定用に使用されるべきであるという信念を持つ。
ショクリ博士は「意思決定プロセスの監査が倫理的なAI への第一歩となります」とAsian Scientist Magazine に語り、AI アルゴリズムが公正でない場合や、バイアスのある基盤やアルゴリズムで動作する場合、非常に危険な結果をもたらす可能性があると指摘する。
ショクリ博士は、バイアスはトレーニング時にアルゴリズムに組み込まれることが多いと説明する。トレーニング用データが提供されると、アルゴリズムはデータからパターンを抽出し、それを予測に使用する。何らかの理由で、トレーニング段階で特定のパターンが他のパターンよりも目立つ場合、アルゴリズムは目立つデータサンプルをより重要なものとして重み付けし、あまり目立たないものについては無視する場合がある。
「このように無視されるパターンは少数派グループに適用されるパターンであると想像してみてください。トレーニング後のモデルは少数派グループのデータサンプルに対して不完全かつ正確性が低く機能するので、少数派に対する意図しないバイアスにつながります」と ショクリ博士。
たとえば2021 年、ツイッターが論争の的となったことが知られている。ユーザーたちが、ツイッターのAI を使用した画像トリミング・アルゴリズムはサムネイルの有色人種の顔よりも白人の顔を強調することを好み、ユーザーのフィードでは、実際に白人の方が多く表示されることを発見したのである。その後、ツイッターは1万 を超える画像ペアを検証し、このバイアスが確認された。
AI にはあらゆる問題が関わることから、多くの組織が、公正で責任ある AI を構築するためのガイドラインを作成しようと試みてきた。世界経済フォーラムの AI 倫理フレームワークはその一例である。シンガポールでは、シンガポールの個人データ保護委員会によって 2019 年 1 月にモデルAI ガバナンス・フレームワークが初めて開催された。このフレームワークはAI システムの仕組み、データの説明責任の実現、透明性の高いコミュニケーションの実行について説明し、AI ソリューションを倫理的に展開するよう組織を指導する。
しかし、先のナラヤナン氏は、AI 倫理に関するこれらの議論は、定義された用語に基づいていなければ、あるいは実際の使用方法について適切な説明がなければ、ほとんど意味がないと語る。これらのフレームワークは「現在、抽象的な概念段階にしか過ぎません。公平性や透明性などの用語を提案することが多く、これらのアイデアは重要に思えますが、具体性については問題があります」とナラヤナン氏。
ナラヤナン氏は「公平性や透明性が何を意味するのかを理解していなければ、自分が何をしているのかわからないだけです。たとえ公正で透明性があると称されるシステムが構築されても、今までと同様なバイアスがかかり、有害なシステムに終わるのではないかと懸念しています」と語る。
ショクリ博士も、明確な定義の必要性を強調し、「公平性の場合、私たちを満足させる公平性の概念を明確に説明する必要があります。たとえば、公平性とは、アルゴリズムの結果が異なるグループ間で同様であることを望んでいることを意味するのでしょうか? それとも、過小評価されているグループでアルゴリズムのパフォーマンスを最大化したいのでしょうか。公平性の概念が明確であれば、その概念を尊重するようにデータ処理と学習アルゴリズムを修正できます」と話す。
ナラヤナン氏はさらに、理論的に根拠のある原則をこのような形で確立することは困難であり、シンガポールのモデル AI ガバナンス・フレームワークなどに関係する人々が実行できる、または実行したいと思わせるものではないという問題を指摘する。
「私見ですが、原則はこの奇妙な無人地帯にあります。理論的に根拠がなく、実際に実行することもできません。後者の問題の解決に重きを置きすぎて前者を犠牲にしているのではないかと心配しています」とナラヤナン氏。
そのため、AiTH でのナラヤナン氏は、AI 倫理を議論する際に使用される用語の定義を調べる研究を専門的に行ってきた。彼は現在、倫理的 AI 構築というテーマにおいて、透明性が実際に何を伴うのかを判断するために、透明性に関する論文を調査中である。
ナラヤナン氏は「透明性はそれ自体が目的なのか、それとも説明責任や救済措置のようなものを得るのに役立つのか、と考えています」と言う。
ナラヤナン氏が特に懸念しているのは、彼が作業の透明性と呼んでいるものである。これはAI アルゴリズムの判断方法に関する情報を人々に提供することであるが、単にその情報を提供するだけである。
「たとえば、求職者に対し、履歴書は自動化されたアルゴリズムによって審査されたと伝えることはできますが、不採用の理由や、それに異議を唱えたり、救済を求めたりする手続について説明することはありません」と ナラヤナン氏。 「システムによって被害を受ける可能性がある場合、不当な決定に異議を唱えることのできるルートが必要になります。 透明性はこれをある程度助けることができます」とも。
透明性や、AI の倫理フレームワークでよく使われるその他の用語を十分理解することは、実際にすべての人に有益な AI を設計するのに役に立つかもしれない。
しかし、人類に利益をもたらす AI を設計するには、正確には何が必要なのか? シンガポール工科デザイン大学 (SUTD)の横山説子氏は、その質問に答えるには、私たちを人間たらしめている無数の様々な、しかし関係しあう要因を考慮する必要があると述べている。横山氏の専門は公平な技術に関するスペキュラティブ・デザインである。これは、特定のデジタル技術の社会政治的歴史を組みこみ、進行中の設計プロセスに反映させるものである。
デジタル技術の中に人道的探求を組み入れることを奨励する横山氏にとって、明確な定義も重要である。
「『ヒューマンセントリック(人間中心)』な設計について話すとき、話題となる『人間』とは誰でしょう?」と横山教授は問題提起し、 「『人間』が社会の中の多数派グループや、設計を決定するときに偶然同じ部屋にいた一握りの選ばれた人々を指しているならば、それはすでに誰が優先され、誰が取り残されているかを示しています」と述べる。
横山氏は、このことを説明するために音声テキスト化技術という一見無害に見える例を取り上げる。この技術はAI を使うYouTube動画の自動キャプションで使われているので、なじみがあるかもしれないが、音声テキスト化技術の始まりは19 世紀後半から 20 世紀初頭頃にまでさかのぼる。当時は視話法と呼ばれ、聴覚障害のある学生が口頭でのコミュニケーションを習得するための技術であった。
「しかし、それは聴覚障害のある学生が『規範的な』会話をマスターし、さらに大きな社会に溶け込むための矯正と同化の手段としても機能しました。その設計原理は『人間中心』的な特徴を持つかもしれませんが、それは健常者による無意識の身体障害者差別が込められているのです」と横山氏。
横山氏が研究で重要な基盤として使用するのはインターセクショナリティである。インターセクショナリティとは、人種、性別、階級、障害の状態、出身国、その他の形態の差別など、複数の異なるアイデンティティが交差して起こる影響を理解するための枠組みである。横山教授は、バイアスは多面的で交差的であるという前提から始めて、自動音声認識システムに定着するのを防ぐことを目指している。
横山氏はAI技術も同じことだと警告する。「人間の定義を狭く限定して設計されたAIシステムは、人間とは誰であるかという特定の考えを主張し、押し付けることになります」と言った。
ナラヤナン氏も技術設計において特定の声やコミュニティを脇に追いやることのリスクについて懸念している。ナラヤナン氏は、AIによる倫理的な意思決定には深い批判的思考と道徳的スキルが必要だと考えているが、一方で、高いリスクを伴う意思決定を一部の人間だけに集中させるべきでないことも強調している。
「わずか数人の人々が担当することには懐疑的です。AI 開発者や技術デザイナーなど、最も技術的な専門知識を持ち、バイアスや危害について決定を行う人々がいます。 一方、これらのシステムによって最も影響を受けるユーザーがいます。問題は、システムを作る上で、影響を受ける人たちは強い力を持っていないということです」とナラヤナン氏。
この点を説明するにあたり、ナラヤナン氏は以前の調査プロジェクトでグラブのタクシー運転手やギグワーカー(契約労働者)と交わした会話を思い出した。労働者は透明性や公平性といった用語にはあまり興味はないようだったが、ナラヤナン氏が賃金や乗車競争などといった現実的な内容を切り口にしてこの話題を説明したとき、変化を見せた。
「彼らには言いたいことがたくさんあったことがわかりました。 ただ、公平性や透明性の原則といった抽象的な用語を知らなかったのです。このため、人々が具体的にどのような問題に関心を持ち、それが、私たちのテーマとどのようにつながるのかを把握することが重要なのです」とナラヤナンは言った。
ナラヤナン氏と横山氏は、設計と社会正義の交差点を探求するコミュニティであるデザイン・ジャスティス・ネットワークのシンガポール拠点を運営している。ネットワークの目的は、設計プロセスの結果から直接影響を受ける人々の声を中心として、コミュニティに力を与え、抑圧を回避するために設計を使用することである。
最終的に、ナラヤナン氏、横山氏、さらに彼らのような他の研究者は、用語を明確にすれば、AI 倫理に関する議論において多様な意見を引き出すのに役に立つと考えている。
AIがもたらす一般的な問題(雇用の喪失、データセキュリティやプライバシーリスクなど)は、不平等な力関係のためにさらに大きな問題となり、その結果、バイアスを持つAIアルゴリズムによって(意図的か意図的でないかを問わず)脇に追いやられる人々はさらに悲惨な状態となる。AI技術の背後にあるアルゴリズムの公正性を議論することは、すべての人にとってより良い技術の未来に向けた重要なステップであることは間違いないが、さらに重要なことは、そもそもその議論で発言するのは誰であるか、ということである。
(2022年11月16日公開)