「ビッグデータ解析」とは|テクスタ辞書


「ビッグデータ解析」とは、従来のデータ集積の容量を超えるほど膨大かつ多様な種類の情報を把握し、分析することです。ビックデータ解析に必要なデータが具体的にどれほどの量であるかの定義は、まだはっきりとはされていませんが、数百テラバイトあるいはペタバイト以上を指すことが多いとされています。

「従来のデータ解析とビッグデータ解析の違い」
これまでのデータ解析では、調査対象からランダムにサンプルデータを取得し、それらを検証することが一般的でした。これは、調査対象全てを検証するには膨大な時間がかかることと、個人の状況を把握するのに必要なセンサーデバイスが高価だったためです。しかし、現在では「センサーデバイスの低価格化」「デバイスから得た情報伝達の高速化」「デバイスの個人所有化」によりビッグデータ解析が可能になったので、いつでも母集団のほぼすべての情報を得ることができるようになりました。これが、ビッグデータ解析の方法です。

「ビッグデータ解析の活用例」
 ビッグデータは、スマートフォンであればGPSセンサー、近接センサー、輝度センサー、加速度センサー、ジャイロスコープといったセンサーデバイスやGPSなどの衛星機器、医療機器、防犯カメラ、さらには金融マーケットなどから得られる情報などが考えられます。また、日本でのビッグデータ解析の事例には、ネットショッピング、公共構造物のひずみや振動解析、プローブ情報解析などが知られています。これらの場では、ビックデータの特徴である「 データは非定型で多様性がある」「速度が速く、リアルタイム性がある」「データ量が指数関数的に増える」といったことが上手く活用されています。