【AsianScientist】虚偽のコンテンツの拡散、排除は可能か?

虚偽のコンテンツ、紛らわしいコンテンツ、有害な可能性を持つコンテンツがSNS(会員制交流サイト)で急速に拡散することがある。これは、エンゲージメントで成り立つアルゴリズムによって実現される。大手のハイテク・プラットフォームはノイズを排除することができるだろうか?

SNSがメディアに登場したとき、強烈な見出しと印象的なビジュアルがバイラリティの重要な要素であった。しかし、今日の飽和した環境では情報が高速で拡散するため、スピードが競合相手を打ち負かし、エンゲージメントを構築する主要な戦術として浮上している。同時に、メディア企業は、都市伝説や半分は本当だが明らかに捏造されたコンテンツと戦わなければならない。

SNSは、情報の無秩序の拡大に悩まされているが、この無秩序を継続させているのはプラットフォームが成功を目指して開発した独自のアルゴリズムとルールなのだ。プラットフォームはコンテントモデレーターから人工知能 (AI) ツールまで使用して、誤情報に対抗する仕組みを展開している。たとえば、Facebookはサードパーティのファクトチェッカーと提携し、フィリピンの政党にリンクされた何百もの「悪意のある」偽のアカウントを削除したことがある。

大手ハイテク企業が介入を始めているが、この混乱した誤情報の状況を調べている者たちは、疑問を持たざるを得ない。ハイテク大手は十分な対応をしているのか、そしてその責任を問うことができるのか?

操作の策略

誤情報と偽情報のネットワークは、オンラインメディアの状況を変え、一般大衆の認識を形成する力を行使する。このようなネットワークの背後にいる首謀者は、特定の人々にアピールする、的を絞った一貫したメッセージを作成する。その後、メッセージは多数のボットアカウント、ネット工作員、新しいインフルエンサーによって拡散され、増幅される。

フィリピンを例に挙げると、このような戦術はワクチン拒否などといった公衆衛生問題に影響を与えた。この戦術は政治的議題(国政選挙など)や人権侵害(冤罪)などにも話題も広げてきた。

しかし、この戦術の成功は、SNSのインフラそのものによって可能となった部分もある。プラットフォームはエンゲージメントについて報酬を与える。「いいね」やシェアが増えると、投稿がユーザーのフィードに表示されやすい。一方、キーワードを含む大量のツイートは、トピックをトレンドリストに押し上げることができる。同じネットワーク内の人々は同様の視点を持つ傾向があるため、レコメンドアルゴリズムは、好みと思えるものに合わせてコンテンツを表示する。このため、ユーザーはバブル(エコーチェンバー)に閉じ込められ、対立意見となるものから隔離される。

たとえユーザーが出くわした情報を検証したいと考えても、オンライン情報の洪水の中では、必要な答えを探すのは難しいであろう。これは、フィリピンのデ・ラ・サール大学のコンピュータ学部の副学長であるチャリベス・チェン(Charibeth Cheng) 博士がAsian Scientist Magazineに対し述べたことである。たとえば、Googleの検索結果は、検索エンジンの最適化手法に基づいている。そのため、関連するキーワードを含み、クリック数が最も多いサイトが検索ランキングのトップになる。このため、信頼性が高く堅牢なサイトが下位になる可能性がある。

フィリピン大学コミュニケーション研究学部のファティマ・ガウ (Fatima Gaw) 准教授は、Asian Scientist Magazineとのインタビューで「ネット上で語り合うことは、利用可能性の問題ではなく、可視性の問題です。情報源が堅牢なものであっても、メディアを十分理解していなければ、可視性のゲームに勝つことはできません」と指摘する。

ガウ准教授は、バイアスを持つコンテンツや誤解を招くコンテンツの作成者は、その投稿を「ニュース」として分類すれば他の正当な情報と一緒に表示することができるので、確実にユーザーの目に触れさせることができるという例を挙げた。

同様に、インドネシアでは、「サイバー部隊」が偽情報を流したところ、国民は政府与党を支持し、批判はかき消された。これは、シンガポールに拠点を置き東南アジアの社会政治・経済傾向を調査する研究機関である ISEAS-Yusof Ishak Institute の報告書が伝えるものである。物議をかもす政策には、パンデミック制限の緩和(新型コロナウイルス感染症の発生からわずか数カ月後に通常の活動に戻ることを奨励する)や、自主的腐敗根絶組織を政府機関にする法改正が含まれていた。サイバー部隊は政治活動家を雇って情報の場を支配し、オンラインで世論を操作した。資金と多数のボットアカウントで活動家を支え、アルゴリズムを支配し、誤解を招くコンテンツを拡散させた。

報告書の作成者は「サイバー部隊の作戦は、世論に偽情報を与えただけではない。市民が政府高官の行動と政策決定プロセスを精査し、評価できなくなるようにしたのである」と書いている。

したがって、偽情報の仕組みは、プラットフォームが報酬を与えるコンテンツの種類とエンゲージメントに関する深い理解を利用している。また、SNSはエンゲージメントを重視するため、次の大きなトレンドを引き起こす力を持つコンテンツを停止する動機はほぼゼロである。

ガウ准教授は「プラットフォームが共犯者なのです。偽情報を広める者たちは、プラットフォームを利用して大規模かつ定着した方法でインフラを操作できるのです。そのため、偽情報を広める者たちはプラットフォームの中でさらに深い活動を行い、最終的には偽情報やプロパガンダから利益を得ることができます」と話す。

現実の再構築

YouTubeの場合、偽情報については他にも憂慮すべき状況が存在する。YouTubeでは、プラットフォームのアルゴリズムとコンテンツモデレーション・ポリシーに問題があり、さらにはそれらの実施にも問題があるため、操作が容認される傾向がある。例えば、長いビデオ形式は、複雑かつ目立たない方法を使い、人を欺くような偽情報をコンテンツの中に埋め込むことができる。

「YouTubeの偽情報の定義も狭く、西側の民主主義に合わせて解釈されることが多いのです」とガウ准教授。

偽情報にフラグを立てることは、事実を識別するだけではない。誤解を招くコンテンツには、実際に起こった出来事や発言など真の情報が含まれていることがあるが、特に前後の背景なしで表示された場合、特定のテーマに合わせて解釈がねじ曲げられることがある。

ガウ准教授は、YouTubeのレコメンデーションシステムは、「1つの嘘が別の嘘を作り、政治の現実を歪曲させ、特定の政党に偏った見方を作り上げるメタパルチザン構造」を作り上げ、問題を悪化させると付け加えた。

国際的メディアの発表によると、TikTokも今年の初め、フィリピンの選挙期間中に、ウイルスの偽情報と歴史の歪曲を流布して批判を浴びた。TikTokに上げられた動画の多くは、元大統領が築いた富とインフラに焦点を当てる一方、フィリピンが抱え込んだ債務と元大統領一族に対して提起された汚職と人権問題については、もっともらしく言い繕った。

さらに、SNSは、コンテンツクリエーターの台頭をオルタナティブボイス(別の視点からの発言)として認めているため、クリエーターたちは従来のニュースメディア、歴史書、学術機関よりも信頼できるとまではいかなくても、同等に信頼できると見なされてきている。

オンラインのインフルエンサーは専門資格がなくても、「『独自の研究』を発表することで信頼性を示す代替信号を作り出し、権威の外にいる人間として信憑性を発信することができます。インフルエンサーの台頭の背景には、ニュースや情報の権威である機関、特にメディアに対する信頼の低下もあるのです」とガウ准教授は説明する。

デジタルメディア環境では、すべての問題が個人の判断に委ねられている。だが、おそらく最も気をつけるべきは、確立された事実であっても、誤りを犯しかねないことである。しかし、チェン博士は、ハイテク企業は中立性を保つことはできないと考えている。「ハイテク企業は、社会的責任を果たすために、さらに大きな役割を果たすべきであり、投稿されたコンテンツについては、たとえそれを削除すると事業に悪い影響が出たとしても、積極的に規制する必要があります」

情報の無秩序を扱う

虚偽の情報や人を惑わすコンテンツの拡散に対抗するためには、AI 活用言語テクノロジーの使用がいいかもしれない。テキストや音声を分析し、問題のあるコンテンツを検出できるだろう。研究者たちは、テキストや情報を基にしたパターン認識を改善しようと自然言語処理モデルを開発している。

例えば、コンテンツに基づく手法では、テキスト自体の一貫性と整合性をチェックできる。記事が新型コロナウイルス感染症(COVID-19) に関するものであると考えられるならば、AI活用言語テクノロジーを使い無関係な単語や語句など、誤解を招くコンテンツであるかもしれない不自然な例を探すことができる。

テキスト含意認識と呼ばれる別の手法では、文や句などの 1 つの断片の意味が別の断片から推測できるかどうかをチェックする。しかしながら、チェン博士は、両方の断片が偽であるが互いに一致している場合、問題のあるコンテンツは気づかれないまま存在している可能性が高いと指摘した。これは、既にガウ准教授が観察した、1つの嘘が別の嘘を作るという現象と同じである。

「多くの既知の真が存在する場合、一貫性と整合性の手法はうまく機能します。しかし、世界中の真の多くは絶えず変化しており、常に整理する必要があるため、モデルも新しくして再度トレーニングする必要があります。そのためには多くの計算リソースが必要です」とチェン博士。

虚偽のコンテンツまたは誤解を招くコンテンツを検出する技術を開発するには、まず包括的な参照を構築して情報を比較し、矛盾にフラグを立てなければならない。これは明白なことである。チェン博士はもう 1 つの課題を強調した。文脈に応じた豊富なアジア言語資料がないため、現地語のテキストを分析するための言語モデルの開発が妨げられているのである。

しかしながら、問題はもっと複雑である。意思決定は決して合理的なものではない。むしろ、非常に感情的かつ社会的なプロセスである。虚偽の情報に異議を唱え、反対の証拠を提示するだけでは、考えや信念、特に深く根付いたものを変えるのには十分ではないであろう。

イベルメクチンが COVID-19 に対する効果的な薬剤として宣伝されたとき、回復した患者の話がオンラインを通じて浮上し、SNSアプリを通じて急速に広まった。多くの人が単なる偶然やその他の変数だけでも説明できたであろう個人的な経験を重視し、この薬剤の臨床的ベネフィットを擁護した。非実験的な設定での1つの成功例が、大規模な科学的試験による証拠を否定するべきではなかった。

ガウ准教授は「もはや事実か嘘かという話ではありません。世の中の虚偽や操作的なコンテンツをより包括的にとらえる方法が必要です」と述べる。

さらに、投稿を削除し、あるいは信頼できる情報センターへのリンクを提供するといった現在のモデレーション対応では、被害を元に戻せないであろう。このような介入は、削除前に問題のあるコンテンツにふれたユーザーには役に立たない。前進させる可能性はあるものの、技術的な介入は偽情報を混乱させる特効薬には程遠いものである。

オルタナティブ ボイスと歪んだ現実の台頭により、研究者は、なぜそのような反論がさまざまなコミュニティや一部の人々に受けるのか、詳しく調べる必要に迫られている。

ガウ教授は次のように締めくくった。

「インフルエンサーは、歴史的に主流の政治から疎外されてきた『普通の』市民を体現することができる一方で、コミュニティ内で政治問題を推進する権限を持っています。私たちは、人間関係やコミュニティの構築を通じて、人々の信頼を再び得るために制度を強化する必要があります。ニュースや記事の内容は、人々の憤りや困難、願望など、人々が真に抱える問題とすべきです」

(2022年12月08日公開)

上へ戻る