AIも左寄りか? 機械学習で洗脳される 

こんにちは。今日は、Google翻訳というソフトを使ったときに現れた不思議な現象についてお話しをしたいと思います。

10月23日、あるネットユーザーはグーグル翻訳ソフトに「Joe Biden just lost the election」「ジョー・バイデンは選挙に敗れた」と意味する英語を入力したら、翻訳された中国語は「ジョー・バイデンは選挙に勝った」と正反対な意味をもつ文章でした。しかし、「Donald Trump just lost the election」を入力すると、「ドナルド・トランプは選挙に敗れた」と正しく訳されています。この不思議な現象はネットユーザーの間で議論を醸し、一時炎上しましたが、グーグルは10月24日に急遽この現象を修正しました。

同じフレーズを使って、人名を入れ替えるだけで、真逆の訳文が出たこの奇妙な現象はなぜ起きたのでしょうか?

この話に入る前に、フェイスブックのことにも触れたいと思います。10月20日、フェイスブック社内に、全投稿をフィルタリングする「ヘイトスピーチ・プロジェクト・チーム」があるという情報が流れました。つまり、このチームは、フェイスブックへの掲載にふさわしくないと思われる情報を検閲、削除する作業を行なっています。ついこの間、フェイスブックはバイデン一家の汚職疑惑に関連する情報の拡散を抑制した行為があったため、不正に情報を検閲・統制していると懸念されているところです。

さらに、フェイスブックの元従業員によりますと、このチームには少なくとも6人の中国籍のメンバーがいて、フィルタリングのアルゴリズムを組む技術職としてかかわっています。なぜわざわざ中国人を雇い、アメリカ人の言論をコントロールするのかと不思議がられています。

では、彼らが行なっていることと、Google翻訳とは何の関係があるのでしょうか?これから説明しましょう。

フェイスブックやツイッター、ユーチューブのサイトに入ると、たくさんの情報が飛び出てくることは皆さんもご存知でしょう。その中には、自らが登録したものやフォローしているものもあれば、そうでないものもたくさんあります。一応、自分が閲覧しているものと関連性のある内容が表示されます。実は、これらのサイトでは「情報推薦システム」を使用しており、運営側は、ユーザーに閲覧してもらいたいコンテンツを推薦してくるのです。

そのためには、運営側はユーザーの閲覧の傾向や嗜好についてある程度知る必要があるし、一方、運営側が持っている全ての情報を分類しておかなければなりません。そして、同サイトに留まる時間を長くさせようと、ユーザーの興味を惹きつけるコンテンツを表示し薦めます。これが「情報推薦システム」です。この非常に複雑なAI(人工知能)テクノロジーはGoogle翻訳にも使われているのです。
 
ある論文によりますと、Googleの情報推薦システムは、主に二組の極めて複雑で高度なニューラルネットワークから構成されたもので、数百億にのぼるパラメーターが含まれています。
 
では、Google翻訳をみてみましょう。このソフトは一般の翻訳機械よりすでに遥かに精度が高く、人間が翻訳するようなレベルにまで近づいています。Google翻訳システムは、二つの段階から構成されており、第一段階は学習段階で、第二段階が運用段階です。 

私たちが普段見ているネットサイトの部分、または、使っている部分はこのシステムの運用部分にあたります。例えば、先ほどお見せしました翻訳サイトに、英語を入力したとします、すると、バックグランドでそれに相応しい訳をすぐに見つけ出して画面に表示してくれます。全過程において、人間の手を加えることはありませんので、客観的な翻訳のように見えます。
 
しかし実際、翻訳システムの学習段階で最も重要なのは、人間が入力する学習サンプル(ワードやフレーズ)です。例えば、英語のワードを入力すると同時にそのワードの意味に当てはまる中国語も入力します。学習段階が完了されるまで、システムは入力された大量の英語と中国語を繰り返して自動的に記憶し学習します。

一方、フェイスブックも同じ方法を用いており、ある言葉を入力し、この言葉に対して、偽りの言葉やヘイトの言葉または検閲の対象などに対応する指示を入力すれば、システムが自動的に学習し記憶します。このように絶えず繰り返して、人間に近い判断力を備える検閲システムを作りあげます。
 
したがって、人間の手を加えられる部分はシステムの学習段階であり、最も肝心なところです。では、フェイスブックが雇った中国人エンジニアは、システムに意図的に思想的な要素を仕組んでいるのでしょうか?そうとは限りません。例えば、ある人は左派のメディアや情報サイトしか閲覧せず、ネットで収集する情報も左派関連のものばかりであるとすれば、システムも左派の情報しか学習しないので、左派になる傾向が現れる可能性があります。
 
今回の米大統領選が良い例です。アメリカの殆どのメディアは左寄りで、左派にとっての好都合情報や報道しか出さないため、大統領選期間中に、システムは「ジョー・バイデン」という言葉に対して、収集したデータから、自ずと「成功」「勝利」「魅力的」などのポジティブなワードに結び付けてしまい、ついにジョー・バイデンは負けないという概念が形成してしまいます。

この状況下で、先ほど入力した「Joe Biden just lost the election」について、システムは「lost」というワードの意味を分かっているにも関わらず、「負けない」「勝利」の概念に基づいて、「ジョー・バイデンは選挙に勝った」という翻訳が出てきたわけです。

実に人間に似ているのです。もし、あなたがある非常に強い先入観を持っていて、それに抵触する言葉を目にしても見間違えてしまうことがあるでしょう。この翻訳システムのように「ジョー・バイデン」に関するあらゆるデータが全てポジティブなものしか頭にないときに、「ジョー・バイデン」は「勝利」のみだと思ってしまいます。

先ほど、フェイスブックで検閲する中国人たちに言及しましたが、例え、彼らはネット上のあらゆる情報を公平に収集してシステムに組み入れたとしても、状況は大して変わらないと思います。なぜなら、現在の主流メディアの9割が左寄りで、比較的に右寄りであるフォックス・ニュースやウオール・ストリート・ジャーナルでも、それらのニュース部門には明らかな左派である人が多くいます。

このような社会現象がある中で、たくさんデータを集めてAIに学習させても、最後の完成品は左寄りの判断力をもつシステムになります。言い換えれば、社会全体が左寄りになっており、全ての情報が左寄りのものに染まっていれば、AIまで洗脳されてしまうのです。

その結果、全ての情報や生活のあらゆる面において、洗脳され左寄りになったAIに頼りきっている私たちは、知らない間に洗脳されてしまう可能性もなくはないでしょう。

 
関連記事