印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 「全量のデータを解析する“ビッグデータ”は効率が悪い」 ここにきて、IT専門メディア以外でも話題にするようになってきたビッグデータ分析だが、1つ多くの人が指摘する事柄がある。 売り上げや在庫といった従来型のトランザクションデータだけでなく、ソーシャルメディアの書き込みなどを分析し、未来の売れ筋商品や在庫リスク要因などを予測するといった使い方がビッグデータに期待されている。 ここで、従来型の統計手法で実施していたサンプリングの手法と比較されるのである。対象範囲の全量データを集めて分析するビッグデータ解析よりも、無作為抽出などの手法でサンプルを集め、全体の構成内容を推理するサンプリング調査の方が、コストや手間がかからずに済むという指摘だ。
![ビッグデータかサンプリングか--起き始めている発想の転換](https://cdn-ak-scissors.b.st-hatena.com/image/square/03cfc426ba97111a0cad1d77c8b9b902bde0d6be/height=288;version=1;width=512/https%3A%2F%2Fjapan.zdnet.com%2Fstorage%2F2013%2F12%2F24%2Fff8053e3550c95f8f4e12ecfb6b7953d%2Flarge_b.jpg)