本文へジャンプ

統合プラットフォーム

Hitachi

世界の主要なITベンダーは、サーバやストレージなどのハードウェアから仮想化ハイパーバイザー、データベースやアプリケーションサーバなどのミドルウェア、システム管理ソフトウェアまで自社のベスト・オブ・ブリードで構成した、垂直統合型のプラットフォーム製品を一斉に投入し始めた。
これは、かつてのメインフレーム時代に見られた、ベンダーによる囲い込み戦略の再来なのだろうか。それとも、ITシステムに新たな価値をもたらすイノベーションなのだろうか。
垂直統合型プラットフォームの"真実"を読み解いていく。(IDC 小山健治氏 解説)

ベンダーロックインからオープンシステムへ

 かつてメインフレーム(大型汎用コンピュータ)によって企業や社会の情報化が進められていた時代、各ベンダーはハードウェアからOS、ミドルウェア、アプリケーションまで一貫して提供する、いわゆる垂直統合モデルの下でビジネスを展開しており、IT業界は上位数社がシェアを分けあう寡占状態にあった。

 そうした中でユーザー企業は、いずれかのベンダーの独自技術、独自アーキテクチャーに依存するしかなかった。価格決定の主導権はベンダー側にあり、システム構築や運用のコストはどうしても高止まりしてしまう。より低コストで導入できる魅力的なソリューションが見つかったとしても、ある程度の資産が社内に蓄積されてしまうと、おいそれと他社のアーキテクチャーに乗り換えるわけにもいかない。出来上がったITシステムの正確な仕様は、システムを開発・構築したベンダーにしかわからないからだ。そして、どんどん「ベンダーロックイン(囲い込み)」された状態に陥っていく。

 こうした"しがらみ"を断ち切っていく契機となったのが、1990 年代から2000 年代初頭にかけて巻き起こったオープンシステム化への潮流である。業界標準技術をベースとした汎用的なコンポーネントを、特定のベンダーにこだわることなく広い市場から調達し、自由に組み合わせることでITシステムを構築するのである。

 一方でベンダー側は、さまざまな製品カテゴリにおいて熾烈な競争を繰り広げることになる。この競争こそが、ITのイノベーションを加速させ、急速なコストダウンを推し進める原動力となったことは言うまでもない。結果、x86 系のサーバにWindows Server® やLinuxを搭載したプラットフォームがメインフレームをどんどんリプレースしていき、昨今では企業活動の中枢である基幹業務システムにまで浸透している。

急速に浮上してきた 仮想環境の複雑化の問題

 だが、一気呵成に進んできたはずのオープンシステム化への流れが、ここにきて大きく変化し始めている。世界の主要なITベンダーは、サーバやストレージなどのハードウェアから仮想化ハイパーバイザー、データベースやアプリケーションサーバなどのミドルウェア、システム管理ソフトウェアまで自社のベスト・オブ・ブリードで構成した、垂直統合型のプラットフォーム製品を一斉に投入し始めたのである。

 エンジニアードシステム、リファレンス・プラットフォーム、仮想化統合アプライアンスなど、さまざまな呼び方がされているが、感覚的にはメインフレームに近い。3 年くらい前であれば、ベンダーロックインへの強い警戒心によって、恐らく誰にも見向きもされなかっただろうこうした垂直統合型プラットフォームを、多くの企業が前向きに評価し、積極的な導入への意欲を見せているのである。

 風向きの変化の背景にあるのが、仮想化されたITインフラの運用管理の複雑化である。

 仮想化はハードウェアとソフトウェアの分離性を高めることで、リソースの効率的な利用を促す。社内に乱立していた物理サーバを集約・統合することで、ハードウェアの導入コストや保守コストを大きく削減することができる。また、1台の物理サーバに相乗りさせていた複数のシステムを、それぞれ個別の仮想サーバに切り分けて運用することにより、サービスレベルのコントロールも容易になる。物理サーバ上に発生したトラブルや負荷増加に対しても、仮想マシンを丸ごと別の物理サーバにライブマイグレーションすることによって稼働を継続できる。このように仮想化を導入すれば、ITインフラが抱えていた運用管理の問題はほとんど解消されるはずだった。

 ところが、現実はその通りにはならなかった。

 仮想化技術を導入することにより、業務に必要なリソースやプラットフォームをサービスとして利用者に提供することが可能となるが、それはあくまでも見かけ上のものである。運用管理に携わる者にとっては、隠蔽されたITインフラに内在するハードウェアやミドルウェアの複雑な構成から目をそむけることはできない。

 アプリケーションに何らかのトラブルが起こった際に、その仮想マシンがどの物理サーバで稼働しており、どのネットワークを介して、どのストレージのリソースにつながっているのかといった関係を紐づけるのは非常に困難だ。物理環境と仮想化環境をそれぞれ別々のツールで管理する必要がある。仮想化レイヤーが加わることによって、インフラの運用管理はむしろ以前よりも複雑化してしまったのである。

 垂直統合型プラットフォームは、こうした課題を抜本的に解決する。ハードウェアからソフトウェアまで一体化し、あらかじめ最適化された状態でインテグレートされているため、これまで多大な工数を費やしていたシステム設計や動作検証、チューニングといった導入時の負担も低減される。シングルベンダーによる垂直統合モデルならではの、完全なワンストップのサポートを受けられるのも大きなメリットだ。

仮想化によるIT運用の複雑化
仮想化によるIT運用の複雑化

経営者の期待に応える 今後のプラットフォームの要件

 もっとも、各ベンダーがメインフレーム時代と同様に独自アーキテクチャーによる囲い込みを狙っていたなら、決して受け入れられることはないだろう。現在の垂直統合型プラットフォームが旧来のメインフレームと決定的に違っているのは、x86系プロセッサーやVMware® ESX Serverなどの仮想化ハイパーバイザ―、Windows Server®、Linuxといった業界標準技術をベースに基本アーキテクチャーを構成している点にある。

 その意味で現在の垂直統合型プラットフォームは、ベンダーごとのベスト・オブ・ブリードで組み上げられた独自性の強いシステムでありながら、同時にオープンシステムとしての本質も兼ね備えている。

 このため、企業は仮想化レイヤーを境界線として、その上位にあるアプリケーションやデータの相互運用性や可搬性を確保することができる。すなわち、既存のサービスの運用に問題や不都合が生じてきた場合には、他社の垂直統合型プラットフォーム、あるいはIaaS(Infrast ructure as a Service)やPaaS(Platform as a Service)などのパブリッククラウドのサービスへ、最小限の手間で移行することも可能なのである。

 そもそも経営者にとっての目的は、ITインフラの構築や運用にあるわけではない。ITシステムを高効率で活用して投資効果を最大化し、ビジネスの効率化や変革につなげることができてこそ価値がある。

 ビジネス環境の急激な変化に柔軟に企業が対応し、高い競争力を維持していくためには、差別化の源泉となるコア業務への積極的な経営資源の再分配を行い、継続的なイノベーションを実践していかなければならない。必須となるのは、ビジネスの変化に合わせてシステムを変化させ続けられることである。そうした中から明確になってきた今後のプラットフォームに対する要件をまとめると、表1の4つのポイントになる。

 これらの期待に応えていくのが、現在の垂直統合型プラットフォームなのである。ユーザー企業はその詳細な中身まで意識する必要はなく、ビジネスを効率的にドライブすることに集中できるようになる。

表1:今後のプラットフォームに求められる要件
表1:今後のプラットフォームに求められる要件

レガシー化した既存のITインフラに モダナイゼーションを推進

 実際問題として、企業がグローバル競争において優位を発揮し、収益を上げて成長し続けていくためには、これまで以上に高度で戦略的な情報活用が不可欠となっている。「ビッグデータ」のキーワードに象徴される新たなアナリティクスへの取り組みは、その最たるものと言えるだろう。ただ、そうした新たなチャレンジに踏み出したくても、なかなか身動きが取れないのが実情だった。

 先に述べた仮想化インフラの複雑化により、IT 部門の80%近い工数がシステムの運用管理やメンテナンスに割かれ、予算も、人材も足りないという壁に直面している。このままでは、情報を戦略的に活用する企業との格差は、ますます開いていくばかりである。

 例えば、これまで多くの企業における情報活用は、データウェアハウスなどに蓄積されたデータ、すなわち過去のデータを分析することで行われてきた。しかし、それでは現在のビジネスのスピードに対応することはできなくなりつつある。

 現在のビッグデータ処理では、ソーシャル・メディア上で交わされるツイート(つぶやき)やブログ、スマートフォンから得られる位置データなど「ヒト」の活動から発生するデータ、さまざまな施設や設備などの「モノ」に埋め込まれたセンサーやメーターが発信するM2M(Machine to Machine)データなども取り込みながら、複合的な分析が行われている。

 将来を予測してビジネスの先手を打つ、あるいは状況が変化した際に素早く舵取りを行うため、こうしたビッグデータを迅速かつ高精度に処理し、戦略的に活用していこうという動きが先進企業の間で活発化しているのである。

 なかでも注目が高まっているのが、時々刻々と発生するデータ(ストリームデータ)を、その時点、その場で処理する「CEP(Complex Event Processing:複合イベント処理)」と呼ばれる技術である。データに対する処理条件(イベント)や分析シナリオ(パターン)をあらかじめCEPエンジンに設定しておき、データがその条件に合致すると、即座に決められたアクションを実行する仕組みだ。

 クレジットカードの決済情報をリアルタイムに監視した不正利用の素早い検出、あらかじめ設定しておいたKPIのパターンが出現した瞬間に自動で注文を出す株式証券のアルゴリズム取引などが代表的だ。世界各地に出荷した建設機械の稼働データを集約し、リアルタイムに「健康診断」を行うことで予防保守のほか、燃費の向上や作業改善のアドバイスなどに役立てている建設機械メーカーの例もある。

 内部構造の複雑化ゆえに硬直化してしまった既存の仮想化環境の上に、こうしたCEPのような最新技術を実装しようとしても無理がある。一部サーバのリプレースといった小先の手直しだけで問題を解決することはできないからだ。

 その意味で現在の垂直統合型プラットフォームは、レガシー化した既存のITインフラをモダナイゼーションしていくためのソリューションと見ることもできる。変化を捉え、システムをシンプル化し、つねに最適な状態を維持するといったメリットを通じて、業務に新たな価値を提供していくことが可能となるのである。

プラットフォーム選択の重要ポイントリードの是非"

 だからこそ、垂直統合型プラットフォームの選択は慎重であるべきとも言える。各ベンダーのベスト・オブ・ブリードを組み上げた垂直統合型プラットフォームは、ITシステムに対して持つ思想を色濃く反映しており、それぞれ特長は大きく異なる。明確な方針を持たずに選択・導入した場合、自社の業務ニーズにまったくマッチしないものになってしまう恐れがある。

 まず、十分に考慮しておく必要があるのが、運用管理を簡素化するための仕組みである。繰り返し述べているように、現在のITインフラの運用負荷を増大させている最大の要因は仮想化環境の複雑さにある。この問題を解決するためには、仮想マシンと物理リソースの関係を"見える化"して一元的に管理するとともに、運用をできる限り自動化・自律化していくことができる仕組みが求められる。加えて、既存の運用管理体制との親和性についても留意しておきたい。

 また、詳細な仕組みを意識する必要のない垂直統合型プラットフォームであったとしても、その存在がまったくのブラックボックスであって良いわけではない。目的のアプリケーションやサービスをその上に実装し、効率的に運用していくためには、さまざまな調整やカスタマイズが必要となるケースも出てくるからだ。

 こうしたニーズにどこまできめ細かい対応が可能なのか。業務に関する知識や経験、ノウハウを有し、信頼のおけるビジネスパートナーとなりうるベンダーの製品を選ぶことが、最重要のポイントとなる。

垂直統合型プラットフォーム選定のポイント
垂直統合型プラットフォーム選定のポイント

特記事項

  • この記事は、「Hitachi Storage Magazine Vol.9 2013年3月」に掲載されたものです.
  • 記載の会社名、製品名はそれぞれの会社の商標もしくは登録商標です。