ビッグデータ分析に注目

 新年明けましておめでとうございます。

 昨年、米国では、株価の上昇、好調な年末商戦と、景気もようやく本格的な回復期に入ってきた感がある。情報通信業界では、Apple、Google、Ciscoなど好調な企業が多い。また、インターネット・ビデオ配信、スマートフォンにタブレットPC、新しいユーザーインターフェース、クラウドコンピューティング、ソーシャル・メディア、ビッグデータ、スマートグリッド、ヘルスケア、グリーン関連ITなど、たくさんの新しいものが本格的に広がってきている。

 ここにあげたものすべて、今年注意してみていく必要があるが、その中のひとつ、これまであまりこのコラムで触れていない、ビッグデータ分析について、注目してみたい。ビッグデータとは、まさしくその言葉どおり、大量データのことを指す。これまでのビッグデータ・アプリケーションは、宇宙開発のためのデータ分析等の特殊なアプリケーションで、大量データを高価なスーパーコンピューターで処理するものが中心だった。それがここに来て、安価な標準サーバー群を使ったシステムで実施できるようになったため、ビッグデータを使ったアプリケーションが大幅に広がっている。高速なネットワーク、安価なストレージ・システムの貢献も大きい。

 ビッグデータのもととなる大量データは、大きく2種類ある。ひとつは、センサーからの大量データだ。すでに世の中には、多くのセンサーが存在し、そこからのデータもたくさん上がってきている。このセンサーが、技術の発展とともに性能が向上し、安価になり、また無線機能を有するものが増えたため、大量のセンサー導入が容易になってきた。これにより、比較的安価で容易に、たくさんのデータを収集することができるようになった。

 センサーの数を増やす、あるいはデータ収集の回数を、たとえば、1日1回から1時間に1回、1分に1回、1秒に1回、さらにそれ以上細かくすることにより、これまで分からなかった状況が把握でき、これを分析することにより、より的確な判断ができるようになってきている。これにより、たとえば、医療関係では患者情報を詳細分析し、より正確な診断が可能となる。また、新薬開発の効率を向上させたり、エネルギー関連ではスマートグリッドでの応用、製造業におけるリアルタイム品質管理など、多くのアプリケーションが実現しはじめている。

 もうひとつの種類のデータとしては、インターネット上で発生している大量データがある。これらを分析することにより、たくさんの新しいアプリケーションが広がっている。人々がインターネット上でどのようなサーチを行っているか、どのようなサイトにアクセスしているか、どんなものを買っているか、どんなことをブログで書いているか、FacebookなどSNSでどんな会話をしているか、等を分析することにより、人々の傾向嗜好分析が可能になり、有効な広告戦略、製品戦略構築に役立てることができる。

 昨年9月のこのコラムで、「本格化するターゲット広告とユーザーのトラッキング」について書いたが、まさしくこれはビッグデータ分析そのものだ。ここでの大きな特徴は、ひとつの情報源からのデータだけでなく、複数の情報源からのデータをもとにしている点だ。また、定型データだけでなく、ブログやSNSからくる文章などの非定型データを含めた分析が特徴だ。

 サーチをベースにしたターゲット広告は、Googleが有名だが、これはユーザーがサーチのために入力したキーワードのみをベースにしたターゲット広告で、contextual targetingと言われる。これに対し、最近のビッグデータ分析では、そのユーザーのこれまでの行動(サーチ履歴、Eコマース履歴、アクセス履歴、SNS履歴、など)を幅広く分析し、それをもとにターゲット広告を出すので、単純にサーチをベースにしたターゲット広告に比べ、格段に精度が高まる、behavioral targetingと言われるものになる。当然、広告主も、高い広告費を受け入れることになる。

 この行動分析には、インターネット上での行動だけでなく、物理的なお店での購入履歴等を含めて分析できることは、言うまでもない。そして、ビッグデータ分析をリアルタイムに行うことにより、ユーザーがウェブサイトにアクセスしたとき、その人のそれまでの行動をもとにした、最も有効な製品を紹介したり、広告を出すことが瞬時にできる、まさにパーソナライズされたサービスであり、広告となる。

 センサーをベースにしたもの、インターネットでの情報をベースにしたもの、いづれの場合も、ビッグデータ分析を行うことにより、これまでできなかったことが可能になる、あるいは、これまで低い精度でしかできなかったことの精度を、大幅に向上させることができる。

 ビッグデータ分析のためのハードウェアやネットワークは、日々発達しており、すでにかなりの高速処理が安価にできるところまできている。これに対し、集められたビッグデータを分析するツールは、まだまだ開発途上だ。すでにデータの分析については、business intelligenceという手法があり、それに関連するツールも開発されている。しかし、これらは定型データしか扱えず、SNSでやり取りされている内容などには対応できない。また、専門家でないと使い難いシステムであるなど制約が多く、そのままではビッグデータ分析には十分対応できていない。分析ツールだけでなく、大量のデータを管理するためのデータベースの仕組みも、新たなものでないと対応できない場合が増えてきている。これらが今後さらに発展しないと、十分なビッグデータ分析は実現しない。

 また、人々のインターネット上での行動を分析すること、あるいは、身体につけたセンサーで得られた情報を分析するには、プライバシーの問題も大きくかかわってくる。そのような情報をどこまで取るか、どのように活用するか、また、それをどのようにユーザーに伝え、ユーザーから許可を得るか、乗り越えるべき山はまだまだたくさん残っている。しかし、ビッグデータ分析がこれまで出来なかったような分析を可能にし、新たなITの可能性を広げることは間違いない。その実現に向け、今年はビッグデータ・アプリケーションの大きな発展に期待したい。

(12/01/2010)


メディア通信トップページに戻る