ページの本文へ

Hitachi
お問い合わせお問い合わせ

効率的なデータ精製

ビッグデータでビジネスを成功に導くには:

トランザクションや顧客などの構造化データが爆発的に増えたことで、従来のETLシステムはスローダウンし、分析が適切なタイミングで実施できないという問題が発生するケースがあります。このような問題の解決手段として、Hadoopを活用したシナリオを紹介します。

効率的なデータ精製により、オンデマンドであらゆるデータソースをブレンド、充実化、精製して、安全かつ分析に使用可能なデータセットにします。ビッグデータ処理のハブとしてHadoopを使用し、Pentahoのデータ統合機能(Pentaho Data Integration:PDI)により特定のデータセットの処理および精製を行います。1回のクリックで、データセットが自動的にモデル化、公開され、ユーザーはそのデータへすぐにアクセスし、分析できます。

概要

管理された分析データセットを提供

Pentahoのデータ統合・分析基盤と組み合わせることにより、Hadoopはパフォーマンスの高い、マルチソースのビジネス情報のハブとなるため、データを流してブレンドした後に、精製されたデータセットを代表的な分析データベース(Amazon RedshiftやHP Verticaなど)に自動的に公開できます。エンドユーザー向けには、データディスカバリーを始め、レポート、ダッシュボード、および可視化といった豊富な分析機能が用意されており、これらを使っていつでも高度な分析を行うことができます。

ブレンドされた大規模データセットを提供し、即時分析を実現

  • 大規模な分析データセットを提供するための実践的アプローチにより、即時かつ高性能な分析を実現
  • セルフサービスのデータ統合プロセスにより、多種多様な大量のデータのブレンドと充実化を実現
  • データ変換ステップやツールを活用したすばやいデータ統合プロセスにより、Hadoopクラスター内のデータ処理の簡素化を実現
  • 高性能分析データベースでの高速クエリや可視化などの自動プロセスを通して、セルフサービス分析を提供

導入事例

ITビジネス環境での導入例:

  • 電子マーケティング企業において、個々の顧客に応じた提案を行うデータ精製アーキテクチャを構築
  • オンラインキャンペーンや登録データ、トランザクションデータをHadoopに収集し、その後Pentahoのデータ統合機能(PDI)を通して処理、さらに自動的にモデル化し分析データベースへ送信
  • ユーザーが主導となり、オンデマンドに分析を実行
  • ビジネス・アナリティクスのフロントエンドには、ビジネスユーザーのためのレポートやアドホック分析などの機能を搭載

導入効果:

  • ビジネスユーザーは、IT部門の手を煩わせることなく、大量かつ多様なソースから生成された、信頼できる管理されたデータへのアクセスが可能に
  • 目的に合った適切なテクノロジーを活用してETLおよびデータ管理コストの削減が可能に
  • 予測分析の新たなデータセットをすばやく収集・設計可能に
  • 管理されたデータセットを自動的にモデル化および公開し、即時に可視化が可能に