米Facebookが69万人近くの英語版ユーザーのニュースフィードを操作して、感情が感染するかどうかを調べる実験を行ったことがわかった。同社のデータサイエンティストであるAdam Kramer氏をはじめとしたデータサイエンスチームが、共著として米科学アカデミー紀要(Proceedings of the National Academy of Sciences)に論文を発表している。

論文によると、Facebookは68万9,003人の英語版ユーザーを対象に、ニュースフィードの投稿に感情的なコンテンツの表示を操作するという実験を2012年1月に約1週間行ったという。

その結果、ポジティブな表現を含むコンテンツの表示が減ると、ユーザーによるポジティブな投稿の作成も減少し、ネガティブな投稿が増えることがわかった。逆に、ネガティブな表現が入ったコンテンツの表示が減ると、ポジティブな投稿が増えてネガティブな投稿が減ったという。

Facebookはこの実験をまとめた論文を、「Experimental evidence of massive-scale emotional contagion through social networks(ソーシャルネットワーク経由での大規模な感情感染に関する実験)」として、PNASで発表した。

同論文で、「直接コミュニケーションをとらなくても、また、言葉を一切利用しなくても、感情の感染が可能であることがわかった」としている。

ポジティブかネガティブかのコンテンツの振り分けは、Hadoop MapReduceシステム上で動くLinguistic Inquiry and Word Count(LIWC)ソフトウェアとニュースフィードのフィルタリングシステムを利用して自動化した。研究者はテキストそのものをみることができなかったことなどから、Facebookの「Data Use Policy(データ使用ポリシー)」と一貫性があると説明している。

Data Use PolicyではFacebookはユーザーのデータをデータ分析や調査目的で使用することがあると明記しており、ユーザーはFacebook登録時にこのData Use Policyに合意することになっている。

実験の結果、フィードにポジティブなコンテンツの表示が減るとネガティブな言葉が増えてポジティブな言葉が減る(右)、ネガティブなコンテンツの表示が減るとポジティブな言葉が増えてネガティブな言葉が減る(左)ことがわかった