Day: July 1, 2014

Facebook感情操作実験の倫理性

ユーザーのニュースフィードの内容が、ユーザー本人の感情形成に影響を与えるかの実験についてのコメントです。

TechCrunchのFacebookによるユーザー感情操作実験の倫理性 によると、この研究費の一部は陸軍から出ています。Facebookユーザーを「本人の知らないうちに感情操作の実験台」にしたことが問題で、「良好な精神状態の人に、不必要な情神的負荷をかけることは思いやりのない行為」と指摘されています。

よく理解できていないところもありますが、

  1. ニュースフィールドに何かを書き込む。
  2. Facebookユーザーはその書き込み内容を読んで反応する。
  3. 反応した内容(ユーザーが書き込んだ内容)に応じて別の書き込みを行う。

というシナリオを考えた場合、Facebookは広告と広告に関連したメッセージを操作することにより、ユーザーを誘導・操作する研究をしていることを伺わせます。TV広告のサブリミナルみたいな効果を生み出すことを期待した研究なのかもしれません。

他方、陸軍は、非常事態が起きたとき、SNSにどのような情報を流すと効果的な情報統制ができるか研究しているのでしょう。これは深く考えなくても、そういうことはいくらでもありそうなので、不思議な気はしません。

TVで、汗をかいた後においしくビールを飲むドラマのひとこまがあり、そのあとにビールの広告が続くと宣伝効果が大きいと聞いたことがあります。野球の実況中継等も広告の前にビールを飲みながら応援しているシーンを映し出すことがあります。確かに、冷蔵庫に向かう引き金になる確率は、何もないときよりも大きいですよね。勿論、そうでなくても、冷蔵庫にへばりつきたいくらいのときもあるわけですから。

追記:Former researcher says Facebook’s behavioral experiments had ‘few limits’

Since its beginnings, Facebook’s data science team has apparently run hundreds of behavioral tests. As Ledvina put it: “They’re always trying to alter peoples’ behavior.” Other tests and research are apparently less invasive: less emotional button pushing, more button testing in an effort to click on more ads and generally waste more time on the site. As the WSJ notes, Facebook isn’t the only one: Twitter, Google, Microsoft et al. also research and monitor their users.