最新技術の進歩により、最近では医療データからソーシャルメディアの指標まで、複雑かつ大規模なデータセットをほぼリアルタイムでやりとりできるようになりました。「ビッグデータ」と呼ばれるこれらのデータは、構造化データ(例:Excel、CSVファイル)と非構造化データ(例:テキスト、XMLファイル)に分類されます。ビッグデータの解析には、高度な処理能力と大規模なデータ容量を備えたデータ分析ツールが用いられます。費用はかかりますが、企業は膨大なデータを処理することで、ビジネスに有益な知見を導き出し、競争力を高めることができます。
ビッグデータ分析の普及によって、世界のデータ通信量は爆発的に増えました。単純に可視化するのは困難ですが、その勢いはモバイルデータ通信量の急激な伸びに表れています。2024年の世界のモバイルデータ通信量は、月間167エクサバイト(1エクサバイトは10億ギガバイト)を超えると推定されています。
データを生成し、オンラインで共有するコネクテッドデバイスなどのIoT(モノのインターネット)もデータ量増加の一因です。IoTデバイスには、筋トレを自動記録するスマートウォッチから、産業機械の稼働状況を監視するスマートセンサまでさまざまあります。最先端AI(人工知能)技術を開発する企業は、IoTデバイスからもたらされるデータをより高度なAIアルゴリズムの訓練に活用しています。
また、データ通信量の増加やAIの普及により、欧州ではデータセンターに対する需要が大きく伸びています。一方で、利用可能なデータセンターの数に限りがあるため、賃料が大幅に高騰しています。需要を押し上げているのは、アマゾン ウェブ サービス(AWS)やグーグル(Google)ら「ハイパースケーラー」と呼ばれる米テック大手で、欧州のデータセンターの平均賃料は、今後5年にわたり1桁台後半で伸び続けるとみられています。データセンターとは、大量のデータを安全に保管・管理するための施設のことです。
ビッグデータ分析では膨大な量のデータが対象となるため、オンプレミス(自社運用)でデータを保存・解析するのは困難です。そのため大半の企業は、場所や時間を選ばず利用できるクラウドストレージの活用を選択します。こうした背景から誕生したのがAaaS(サービスとしてのアナリティクス)モデルです。AaaSでは、サブスクリプション型クラウドサービスを介したビッグデータ分析が可能で、利用者はデータの管理・処理に伴う費用を回避できます。
2023年は、ビッグデータが大きな転換点を迎えた年となりました。同年、大手企業の最高データ責任者(CDO)を対象に行われたグローバル調査では、「(自社は)ビッグデータでイノベーションを創出している」との回答の割合が前年比で急上昇しました。
多くの企業でビッグデータの活用が進む一方、さまざまな課題が山積しています。データの品質に関する問題もその一つで、2023年の調査では、「データの品質向上に成功した」と回答した企業は全体の37パーセントに過ぎませんでした。生成AIツールの登場によりプライバシーへの懸念が高まるなか、企業は個人データ収集に関する顧客の不安を払しょくする必要に迫られています。
Statistaは、記載された情報の完全性および正確性に関して一切の責任を負いません。このページに掲載されているのは一般的な情報であり、statista.comのコンテンツを翻訳し、作成したものです。和訳版と原文(英語)に差異が発生した場合には、原文が優先します。更新頻度が異なるため、本ページで紹介したデータよりも新しいデータがstatista.com上に表示される場合があります。データの二次利用権に関しては、FAQの該当項目をご覧ください。
Statistaにご関心をいただき有難うございます。ライブデモのご要望、製品の内容、アカウントの種類や契約に関する詳細など、どうぞお気軽にお問い合わせください。日本語と英語での対応が可能です。