2012の米大統領選挙 特別企画
米大統領選挙で実証されたビッグデータ分析の価値

2012年の米国大統領選挙は、オバマ氏の圧勝で幕を閉じた。多くのメディアが、逃げるオバマ氏、追うロムニー氏という構図を伝え、「選挙人数が同数になる可能性もある」、「オバマ氏が勝つ可能性が高いものの、全米の得票数はロムニー氏が上回るかもしれない」など接戦の模様を報じていた。投票前日、あるニュースが報道された。激戦州で最後の演説をするロムニー氏に対し、オバマ氏はバスケットボールをプレイしていたという。どうやら、オバマ氏は勝利を確信していたようだ。なぜオバマ氏は、大切な最終日を悠然とすごすことができたのだろう。もしかすると、綿密に実行されたシミュレーションが、あとは勝利宣言の原稿を用意するだけだとオバマ氏に告げたためかもしれない。

ビッグデータの活用で勝ったオバマ氏

オバマ氏の選挙は、ITと結びつけて語られることが多い。前回2008年の選挙では、Twitterの積極的な利用や、ボランティア向けのポータルサイトを見事に運用した選挙戦術が紹介された。もちろん、これらは今回も利用され、成果を挙げた。今回新しかったのは、オバマ陣営がデータ分析を徹底的に活用したことだ。

データ分析を効果的に行うためには、データを集めなければならない。オバマ陣営も、前回の選挙で集めた支持者名簿の統合から始めた。前回利用したデータベースは複数あった。さらに、支持者が足で集めた情報や、支持団体の名簿は容易に手に入れられなかったり、手に入れられたとしてもフォーマットが異なったりする。それらを地道な作業で1つの巨大なデータベースに登録していった。氏名、性別、住所、電子メールアドレスなどの基本的な情報に加え、投票歴なども加えられた模様だ。この作業には、18カ月の期間を要した。

データが集まったところで、アクションを開始する。効果が高かったのは、資金集めのための名簿利用だ。ランダムに抜き出した複数の少人数グループに対し、差出人名や件名、本文を変えて募金を呼びかける電子メールを送付する。その時点で最も反応が良かった組み合わせを大規模展開する、というやり方だ。反応の良いメールは、良い結果を得られなかったメールに対して10倍の効果があったという。この手法は古くから利用されているものだが、正確なデータをそろえ、精緻に追跡調査をできているからこそ、成果が上がったと言えるだろう。

資金集めに関連すると、データ分析は政治資金パーティーのやり方も変えた。データを深く分析したところ、「西海岸に住む40~49歳の女性にとって、ジョージ・クルーニーは強い影響力を持つ」という結果が出た。ジョージ・クルーニーは熱心な民主党支持者で、オバマ氏とも交流がある。そして、オバマ氏への協力を惜しまないと公言していた。そこでオバマ陣営はジョージ・クルーニー邸での夕食会を企画し、1500万ドルもの資金を集めることに成功した。単に有名人を起用したのではなく、ターゲットを絞り、限られた時間の中で最も効果的な手を打つ。これは派手な例だが、オバマ陣営は演説会のゲスト選定などの際には必ず、データ分析を利用した。

2012年大統領選挙州別選挙人数の割合

選挙のシミュレーションにデータ分析が果たした役割も大きい。TIME誌によれば、オバマ陣営はオハイオ州に住む2万9000人のデータを入手していた。オハイオ州は激戦州で、この人数は同州における選挙権者の0.5%にあたる。同様のデータを、他州でも入手して利用していたのだろう。オバマ陣営は毎晩、あらゆる可能性を想定した6万6000通りの選挙シミュレーションを実施していた。

有権者の心理は、さまざまな要因で揺れ動く。失言は言うに及ばず、公開討論会でのディベートや、候補者による政策の詳細に踏み込んだ発言でも、投票意向が変わる。毎晩シミュレーションを繰り返すことによって、てこ入れ先が見えてくる。さらに深くデータ分析を行えば、てこ入れする手法の発見につながるかもしれない。たとえば、最も有効な手段が遊説だとしよう。しかし、費用(遊説にかける時間)対効果という目で見ると、別の選択をした方が優れた結果をもたらしてくれるケースも多いはずだ。効率的にリソースを利用し、最も効果的な手を打ったことで、オバマ氏は接戦とされた8州すべてを制することができたと言えるだろう。

選挙予測もデータ分析の世界へ

今回の米国大統領選挙は、選挙予測の世界に激震を走らせた。前回の大統領選挙において全50州中49州の結果を的中させ一躍有名になった選挙予測専門家、ネイト・シルバー氏が全50州的中という偉業を成し遂げたのだ。

シルバー氏の予測は、高度な統計モデルに基づいている。集められた調査資料を、調査時期、調査規模、および調査実施者の3点で重み付けし、趨勢線(トレンドライン)、調査実施者の傾向、調査回答者の傾向によって調整する。こうして出来上がった基礎データを、線形回帰分析によって利用可能な状態にする。さらに、さまざまな要素を加え、シミュレーションを実行するというものだ。

多くの政治評論家は、自身の経験やカン、独自に入手した情報などによって選挙結果を予測する。対して、シルバー氏の手法は、一切の感情を排している。すべてがデータ分析に基づいているため、結果にイデオロギーが入る余地はない。しかし、予測を公表した後、彼は政治評論家たちから、「リベラルすぎる」と叩かれた。どちらが正しかったか。結果は明らかだ。

2009年に行われた日本の衆議院議員選挙でさまざまなメディアが当落予想を競う中、面白い試みが行われた。前回のいわゆる郵政選挙で自民党に吹いた「風」が、すべて民主党に流れるとして、風に当たる割合の得票数を機械的に自民候補者の前回得票数から民主候補者に移して当落を予測した週刊誌があったのだ。選挙結果は、この予測に最も近く、政治評論家を起用した予測の大半は実際と大きくかい離した。この例では個々の選挙区事情を勘案しておらず、データ分析も利用していないが、少なくとも「風」を数値としてとらえ、感情を排してそのまま利用したことに意味はあった。

なお、このやり方では、「風」の強さを理論的に説明できないという弱みがある。選挙区別のモデル化や、世論調査結果を分析し正確な「風力」をつかむことなどで、より正確な結果を得られたかもしれない。


データ分析は、狭い範囲のデータを対象としたものだけでなく、いわゆるビッグデータと呼ばれる領域へと拡大している。今回の大統領選挙においてオバマ陣営が分析対象としたデータの詳細は、明らかになっていない。とはいえ、SNSで交わされる発言などを総合的に把握し、リアルタイムに世論動向を調べていたという想像はできる。リアルタイムな情報を利用するからこそ、毎晩6万6000通りのシミュレーションをする意味があると言えるためだ。

今回の大統領選挙とデータ活用について数多く報道された内容は、日本の企業や組織にとって、重要なヒントになる情報を含んでいる。販促の電子メールキャンペーンがうまくいかなかった企業は、データの正確さや新しさを疑うべきかもしれない。より効果的なイベントを企画するためには、データ分析によって対象の興味を絞り込むことが望ましい。データを常に最新にしておくことで、より優れた結果を得ることができる。そして、傾向を発見するのが困難に見えるデータであっても、正しい分析モデルと手法があれば、全体のトレンドと同時に分析し、確かな成果を導き出すことができる。

データ分析だけあれば、選挙やビジネスで勝てるというわけではないが、データ分析が勝つための近道を指し示してくれることは間違いない。何かを成し遂げようとするときに、何かを予測しようとするときに、経験やカンだけでなく、データ分析によって得られる科学的な事実を利用することは大きな助けになるはずだ。

Back to Top