読者です 読者をやめる 読者になる 読者になる

ログマニアックス

日々学んだこと、気づいたことをメモ代わりに残していければ。カバー範囲は割と広めです。

小さくビッグデータを実現することから始めよう

image

ちょっと広告っぽい部分も多いですが、ビッグデータって連呼する前に現実的な「小さな」ビッグデータを扱って行きましょう、的な話。

The problem with “Big Data” … Web Analytics Demystified

ここがネタ元。

The central thesis of the paper is that through careful and considered digital data integration — in this case powered by emerging Digital Data Distribution (D3P) platforms like Tealium’s AudienceStream — the Enterprise is able to develop the skills and processes necessary for true “big data” projects on reasonably sized and integrated data sets (hence, “little” big data.) The same types of complex, integrated analyses are possible using the same systems and data storage platforms, but by simplifying the process of collection and integration via D3P companies can focus on generating results and proving value … rather than spinning their wheels creating massive data sets.

という話ですが、D3Pといったプラットフォームを活用することで無駄に大きなデータを扱わずに必要なサイズで結果を出すことにフォーカスできるよ、 と。

実際問題、全データを集めて集計・分析・施策を実施して行くんだ!みたいなことをいっても大抵はうまくいきません。システムも形式も違うデータをマージしようとすると、システム担当に負荷が寄るし、作ること自体が目的にすり代わりすらします。

なんというか「いい感じに」ある程度のボリュームをまとめて施策に生かす仕組みをさくっと作ることが即物的ではありますが、現実的な選択肢というのは激しく同意します。

image

むしろインテグレート専業のプラットフォームを導入することでうまく行くことはあるよね、というのはよくわかる気もします。