「Facebookを通じてフェイク(虚偽)のニュースが広まったのが大統領選の結果を歪めた」、そんな議論が米国で広がっている。

発端は今年の春である。FacebookのTrendingの記事が保守派に不利なようにキュレーションされていると指摘された。その際に、自動アルゴリズムで公平に注目記事が選ばれるはずのTrendingに編集スタッフが関与していたことが明らかになり、人為的な偏向が疑われた。そこで自動アルゴリズムによる処理を徹底したのだが、アルゴリズムがTrendingの上位に虚偽の記事が表示してしまって再び批判にさらされた。人が編集したら偏っていると言われ、アルゴリズムに任せたら信頼できないと言われる。突き詰めると、ニュースを扱う責任をFacebookが負えているのか、という議論である。それが大統領選後まで尾を引き、トランプ大統領の誕生で不満の声が噴出した形だ。

Facebookが大番狂わせを引き起こしたかのような非難に、さすがに黙っていられなかったのか、TechnonomyカンファレンスにおいてFacebook CEOのMark Zuckerberg氏が「馬鹿げている」と反論した。一部に虚偽の情報が混じっていた事実は認めたが、「”いくつかフェイクのニュースを見た”というだけで、それを誰かが誰かに投票するのを決めた唯一の理由と断言するのは、はなはだ共感力(エンパシー)に欠ける」と述べた。

5~10年でFacebookのAIは人の感覚や判断よりも信頼できるようになるとZuckerberg氏(TechnonomyのTwitterから)

Zuckerberg氏はFacebookのコンテンツの99%以上は信頼できると断言する。ところが、多くの人がFacebookから受け取るニュースは信頼できないと批判する。議論が噛み合っていない。なぜか? フェイクのニュースが問題の核心ではないからだ。たとえFacebookが1%のフェイクを撲滅できても、おそらく人々のFacebookに対する不審は払拭できない。

今年5月にWall Street Journalが「Blue Feed, Red Feed」というサイトを公開した。ブルーは民主党の色(リベラル)、レッドは共和党の色(保守)である。サイトでは、トピックを1つ選ぶと、そのトピックに関するリベラル派のFacebookユーザーのフィードに流れる記事と保守派のユーザーのフィードに流れる記事を並べて表示する。例えば、トピックに「銃」を選ぶと、ブルーには銃器を溶かした鉄からスコップを作り、それを使って植樹している男性のストーリー、レッドにはベテラン警官に暴行した容疑者の暴走を、護身のために銃を携帯していた市民が射殺して食い止めたストーリーが表示される。記事数を増やしても、それぞれ同じような記事が続く。

同じトピックでリベラル派のフィードと保守派のフィードを読み比べられる「Blue Feed, Red Feed」

ブルーとレッド、どちらも虚偽の記事ではない。事実である。だが、ブルーとレッドの記事をそれぞれ読むと、同じトピックに対する印象が全く異なる。そして、ブルーに流れる記事がレッドに流れることはない、逆も然りだ。ブルーの人々がレッドに流れる記事を見たら「事実と異なる」と言うかもしれない。レッドの人々も同様だろう。

これは、いわゆる「フィルターバブル」問題である。ユーザーがその人の観点に合わない情報から隔離され、その人自身の文化的、思想的なバブルの中に閉じこもってしまう。ユーザーが好む記事、ユーザーの関心に合う記事を流すFacebookはフィルターバブルを助長する。リベラルの人のフィードにはリベラルの人々が好むニュースが流れ、保守派の人のリードには保守派が好む記事が流れる。自分が好まない記事を読むこともできるが、人々は自分の思想やセオリーなどの正当性を支持してくれる情報を好み、逆に疑問を呈する情報や反証する情報は無視または集めようとしない。確証バイアスである。だから、ブルーの人がレッドの記事をタップすることはない。ブルーにはブルーが好む記事が集中し、レッドにはレッドが好む記事だけが流れ続ける。

自分にとって心地良いコンテンツやニュース、意見だけにフィルターされ、ユーザーが閉じこもってしまうフィルターバブル

フィルターバブルではブルーのバブルは青くなるばかりで、レッドは赤く染まっていく。それがソーシャルネットワーキングの持ち味という人もいる。だが、62%がソーシャルメディアを通じてニュースを知るようになると、その影響は無視できない。互いを理解しないのは対立を深める。それだけではない。今回の大統領選でメディアを含めてブルーがヒラリー・クリントン有利を盲信したように、自分にとって心地良い情報に浸りきって全体を見ないのは、自分を知らないも同然である。

CNBCが10月28日、つまり投票の11日前に公開した記事で「2008年のオバマを超える支持でトランプが大統領選を制する-AI予測」と、AIシステム「MogIA」の予測を紹介した。クリントン候補のメール問題が再燃し始めたばかりの頃で、「オバマ超えでトランプ勝利」は一笑された。しかし、終わってみたらMogiAの予測は正しかった。

世論調査や電話調査は必ずしも有権者全体を反映せず、収入レベルなどに偏りが起こる可能性がある。調査を実施するメディアが確証バイアスに陥ってしまいがちだった今回の選挙ならなおさらだ。MogiAはGoogle、Facebook、YouTube、Twitterといったネットサービス、ソーシャルメディアからデータを収集して分析した。従来のメディアが「隠れトランプ支持者」とするトランプ支持者はMogIAにとっては”隠れ”でも何でもなかった。トランプ候補の女性蔑視発言を問題視する記事であふれても、そんな記事は読まずに、保守派が好む意見に浸りながら、変わることなくトランプ候補を支持し続けていた保守派をMogiAは読み取っていたのだ。