MotionWorks.jp | EDIT / VFX / Grading

インフィニバンド対応ユニファイドストレージ iX発表

第2回技術交流会の参加前にNewtec新製品インフィニバンド対応ストレージ Unified Storage iX(イクス)シリーズの発表会に行ってきました。

ユニファイドストレージ iXは 3タイプがあり、3UタイプはSupremacyII iX。
2U、1UタイプはCloudy iXと名付けられています。現在出荷可能なのは3Uタイプのみです。

XFS(ジャーナル)の 64bitOS (Linux)で構成され、NFS、CIFS(Samba)、AFP、FTP WevDAV等をサポート。認証ではLinuxローカル、ActiveDirectory、LDAPをサポートし、10Gbイーサネット、ファイバーチャネルで、FCターゲットやiSCSIボリュームとして構成することも可能になっています。また、最大の特徴としてインフィニバンドで接続することができるようになっています。

いわゆる何でも繋がる脅威のRAIDストレージです。

Infinibandホストバスアダプタを採用した製品はHPC、エンタープライズソリューションではDDN(DataDirectNetwork社)に次いで2社目で低価格な製品としては世界初ともいえる製品です。 発表会の当日が初出荷で角川大映スタジオに納入予定とのことでした。

インフィニバンドってなに?

最先端の超高速インターコネクトです。

物理層ではファイバーチャネル、10Gbイーサネットとほぼ同じ仕様です。現在はQDR(Quad Data Rate)製品が一般的で(1レーン10Gb)、x4接続の場合双方向で40Gb/sの転送レートがあります。今話題のThunderboltを4本束ねたような仕様です。低遅延性(低レイテシー)や高信頼性、RDMA( メモリー間転送)による低CPU負荷等が特徴です。IPoverIBを用いて接続する場合イーサネットと同じTCP/IPで動作するアプリケーションが動作可能です。(IPoverIBの場合RDMAは使用できない) また、パケットロスを抑えイーサネットに比べ高速に動作します。


同じようなストレージを接続する技術にファイバーチャネルがあります。ファイバーチャネルで接続した場合、別途スイッチやメタデータコントローラ、XSANやStoreNextなどのSANソフトウェアが必要となります。IPoverIBを用いる場合、スイッチとファブリックソフトウェア、HCAのみで構成できます。 現在、QDRで40Gbの転送レートですが PCI-エクスプレスのバスがボトルネックになっており、PCIeがGen3になればFDR(Fourteen Data Rate)で理論上56Gbpsまでのスループットを実現することができるようになります。MellanoxによるとQDR製品でHCAも10万円を切っておりスイッチも1ポート3万円程度になり導入も困難でないレベルになってきているとのことです。

Newtecは Mellanoxの公認パートナーでエンドtoエンドでHCAからスイッチ、ゲートウェイ等提供することが可能になっています。

年々データの肥大とレプリケーションの重要性が増大しており、その点でもインフィニバンドは利用価値があります。サーバー仮想化やクラウド等で一台に何十台のシステムが乗る場合、ケーブルの集積化と低遅延性がサーバーコストに反映されます。

Xsigo(IO仮想化コントローラー)

VMwareやCitrixなどで仮想化した場合、一台に多くの仮想デスクトップを置くことになります。しかし、これらに物理的なIOが存在しません。ブレードサーバーで物理的なIOやケーブル増やすしかないのですが、 インフィニバンド接続したXsigoを使うことでそれらをソフトウェア的にスイッチングすることができます。フジテレビの業務機関に採用されている事例が紹介されています。

また、Autodeskの分散レンダリングBurnでもインフィニバンドが採用されています。現在Burnのライセンスはクリエイティブ フィニッシング製品のサブスクリプションユーザーに無償で提供されています。

製品について詳しくはこちらをご覧ください
インフィニバンド対応ストレージ Unified Storage iX(イクス)シリーズ

関連サイト
ニューテック
シーゴ システムズ ジャパン
NVIDIA Tesla GPU、Mellanox InfiniBandネットワークにおける通信を高速化

コメントを残す