【ニュース解説】AIも左寄り?機械学習で洗脳される=NTDジャパン

時事

今、社会全体が左寄りの傾向にあり、たくさんのデータを集めてAIに学習させても、全ての情報や生活の面で左寄りのものに染まっていれば、AIまで左寄りに洗脳されてしまう。そんなAIに頼り切っている私たちは、知らない間に左寄りに洗脳されてしまうのかもしれない。

NTDジャパン(2020年11月6日)によると、 Google 翻訳というソフトを使った時に、不思議な現象が現れ、10月23日、あるネットユーザーが Google翻訳ソフトに、「Joe Biden just lost the election」「ジョーバイデンは選挙に敗れた」と意味する英語を入力したら、翻訳された中国語は「ジョーバイデンは選挙に勝った」と正反対な意味を持つ文章だったという。

しかし、「Donald Trump just lost the election」を入力すると「ドナルド・トランプは選挙に敗れた」と正しく訳されていた。この不思議な現象はネットユーザーの間で議論を醸し一時炎上したが、Googleは10月24日に急遽、この現象を修正した。
同じフレーズを使って人名を入れ替えるだけで真逆の訳文が出た。この奇妙な現象はなぜ起きたのだろうか?

ところで、この話の前にフェイスブックについて触れると、10月20日、フェイスブック社内に全投稿をフィルタリングする「ヘイトスピーチ・プロジェクト・チーム」があるという情報が流れた。つまり、このチームはフェイスブックへの掲載にふさわしくないと思われる情報を検閲、削除する作業を行っている。ついこの間、フェイスブックはバイデン一家の汚職疑惑に関連する情報の拡散を抑制した行為があったため、不正に情報を検閲・統制していると懸念されているところだ。さらにフェイスブックの元従業員によると、このチームには少なくとも6人の中国籍のメンバーがいてフィルタリングのアルゴリズムを組む技術職として関わっているという。なぜ、わざわざ中国人を雇い、アメリカ人の言論をコントロールするのかと不思議がられている。

では、彼らが行っていることとGoogle翻訳とは何の関係があるのだろうか?
フェイスブックやツイッター、ユーチューブのサイトに入るとたくさんの情報が飛び出てきて、その中には自らが登録したものやフォローしているものもあれば、そうでないものもたくさんあることは知られている。一応、自分が閲覧しているものと関連性のある内容が表示されるのだが、実は、これらのサイトでは「情報推薦システム」を使用しており、運営側はユーザーに閲覧してもらいたいコンテンツを推薦してくるという。そのためには、運営側はユーザーの閲覧の傾向や嗜好についてある程度知る必要があるし、一方運営側が持っている全ての情報を分類しておかなければならない。そして、同サイトに留まる時間を長くさせようと、ユーザーの興味を引きつけるコンテンツを表示し薦める。

これが「情報推薦システム」で、この非常に複雑なAI(人工知能)テクノロジーは Google翻訳にも使われている。ある論文によると、Googleの情報推薦システムは主に二組の極めて複雑で高度なニューラルネットワークから構成されたもので、数百億に上るパラメーターが含まれている。Google翻訳の場合、このソフトは一般の翻訳機械よりすでにはるかに精度が高く人間が翻訳するようなレベルにまで近づいているという。Google翻訳システムは二つの段階から構成されており、第一段階は学習段階で、第二段階が運用段階だ。

私たちが普段見ているネットサイトの部分または使っている部分はこのシステムの運用部分にあたる。例えば、先程の翻訳サイトに英語を入力したとするとバックグランドでそれにふさわしい訳をすぐに見つけ出して画面に表示してくれる。全課程において人間の手を加えることはないので、客観的な翻訳のように見える。しかし、実際、翻訳システムの学習段階で最も重要なことは、人間が入力する学習
サンプル(ワードやフレーズ)だといえる。

例えば、英語のワードを入力すると同時にそのワードの意味に当てはまる中国語も入力する。学習段階が完了されるまで、システムは入力された大量の英語と中国語を繰り返して自動的に記憶し学習する。一方、フェイスブックも同じ方法を用いており、ある言葉を入力しこの言葉に対して偽りの言葉やヘイトの言葉、または検閲の対象などに対応する支持を入力すればシステムが自動的に学習し記憶する。このように絶えず繰り返して人間に近い判断力を備える検閲システムを作り上げる。

したがって、人間の手を加えられる部分はシステムの学習段階であり最も肝心なところだ。では、フェイスブックが雇った中国人エンジニアはシステムに意図的に思想的な要素を仕組んでいるのだろうか?そうとは限らない。例えば、ある人は左派のメディアや情報サイトしか閲覧せず、ネットで収集する情報も左派関連のものばかりであるとすれば、システムも左派の情報しか学習しないので、左派になる傾向があらわれる可能性がある。今回のアメリカ大統領選が良い例で、アメリカのほとんどのメディアは左寄りで、左派にとっての好都合情報や報道しか出さないため、大統領選期間中にシステムは「ジョー・バイデン」という言葉に対して、収集したデータから自ずと「成功」「勝利」「魅力的」などのポジティブなワードに結びつけてしまい、ついにジョー・バイデンは負けないという概念が形成されてしまう。

この状況下で先ほど入力した「Joe Biden just the election」について、システムは「lost」というワードの意味をわかっているにもかかわらず「負けない」「勝利」の概念に基づいて、「ジョー・バイデンは選挙に勝った」という翻訳が出てきたわけだ。実に人間に似ている。もし、あなたがある非常に強い先入観を持っていてそれに抵触する言葉を目にしても見間違えてしまうことがあるだろう。この翻訳システムのように「ジョー・バイデン」に関するあらゆるデータがすべてポジティブなものしか頭にないときにジョー・バイデンは勝利のみだと思ってしまうわけだ。

先ほどフェイスブックで検閲する中国人たちに言及したが、たとえ彼らがネット上のあらゆる情報を公平に収集してシステムに組み入れたとしても、状況は大して変わらないだろう。なぜなら、現在の主流メディアの9割が左寄りで、比較的に右寄りであるFOXニュースやウォール・ストリート・ジャーナルでもそれらのニュース部門には明らかな左派である人が多くいるという。

このような社会現象がある中でたくさんデータを集めてAIに学習させても、最後の
完成品は左寄りの判断力を持つシステムになる。言い換えれば、社会全体が左寄りになっており、すべての情報が左寄りのものに染まっていれば、AIまで洗脳されてしまうのだ。その結果、全ての情報や生活のあらゆる面において洗脳され、左寄りになったAIに頼り切っている私たちは、知らない間に洗脳されてしまうのかもしれない。