SlideShare a Scribd company logo
RDMA for Windows Server 2012
メラノックステクノロジーズジャパン株式会社
IB-Day 6 : February 1st, 2013
最先端のE2Eソリューションを実現するラインナップ
                                                                                                                    Storage
          Server / Compute                                       Switch / Gateway                                Front / Back-End
                                      Virtual Protocol Interconnect              Virtual Protocol Interconnect
                                           56G IB & FCoIB                               56G InfiniBand
                                        10/40/56GbE & FCoE                               10/40/56GbE
                                                                                        Fibre Channel




                                       Comprehensive End-to-End InfiniBand and Ethernet Portfolio
         ICs                   Adapter Cards                 Switches/Gateways             Host/Fabric Software                Cables




© 2013 Mellanox Technologies                                                                                                            2
Solid State Deviceの特性を活かすストレージサーバ

 フラッシュメモリのコモディティ化はSSDストレージの利用を促進
  • SSDは共有ストレージへのアクセス競合を緩和し、ランダムI/O性能を劇的に向上
 SSDは最小のレイテンシーと低消費電力のストレージを実現
  • 最高性能だがまだ高価なSSDを低価格で利用するには、SSDのアプリケーションへの
    応答性能を妨げない、低レイテンシーなインターコネクト技術による外部共有が必須

Component                       Latency (usec)
InfiniBand                              0.7
Ethernet RDMA (RoCE)                    1.3

Ethernet TCP                            6
Fibre Channel                           20
SSD Read                                25
Disk Read                              6000      Total: 45usec   Total: 25.7usec

                     Fibre Channelでは、 SSDのアドバンテージを阻害してしまう
                    InfiniBandとRDMAベースのEthernetがSSDの共有には最適!
 © 2013 Mellanox Technologies                                                      3
Storage Acceleration Serverによるストレージ高速化

    1、既存の外付けストレージ共有システム                                      2、ストレージサーバ経由接続型システム

                     アプリケーション/DB サーバ                                       アプリケーション/ DB サーバ
      SSD
      SSD                SSD
                         SSD        SSD
                                    SSD   SSD
                                          SSD                        SSD    SSD       SSD          SSD
                                                                                                       40/56Gbps
                                           4Gbps FC Switch                                         InfiniBand Switch
                                                                                                       ストレージ
                                                                           SSD             SSD     アクセラレーション
                                                                                                        サーバ
                                                                                             IB+DRBDでミラーリング

                FC RAID
    ストレージの統合に際しては、処理が特定のI/Oに集中しがちになるので、
    SSDのような高速ドライブの必要性が高まる。                                                       FC RAID

   FC RAID搭載のキャッシュメモリは数GBと小容量                                  SSDを利用することでキャッシュヒット率を大幅に改善可能
   DBのマスターテーブルなどへのアクセスが遅い                                      DBのマスターテーブルもSSDキャッシュから読込み可能
   最新の高価な8Gbps FCでもIOボトルネックが発生                                 8Gbps FCの7倍のスループット、50万IOPS/SSDの性能
   高性能なSSDの完全なフェイルオーバーができない                                    SSDをレプリケーションモードにすることで二重化が可能
   FCにSSDを装着しても通信遅延で性能は半減                                      SSD搭載サーバとIBで接続、直付けと同等の応答性能

     © 2013 Mellanox Technologies                                                                               4
OracleのEngineered Systemsで活用されるInfiniBand


 Oracle Weblogic Server Grid
  •   30 Compute Servers
  •   360 Compute Cores
  •   2.8 TB DRAM
  •   960 GB Solid-State Disk
 Mellanox InfiniBand Network
  • 40 Gb/s InfiniBand Links
  • 1.2 micro second latency
  • 10Gb/s Ethernet connectivity
    to data center
 Integrated Storage Appliance
    • Central storage for system images
    • Clustered for HA
    • 40 TB SAS disk storage
    • 4 TB read cache
    • 72 GB write cache
© 2013 Mellanox Technologies                5
Oracle RACにインフィニバンドを採用するメリット


    I/O性能を33%向上
    DB処理能力を62%向上                                                   1Gb/s EthernetとFibreChannelの
                                                                           コンビネーションと
    システムコストを35%削減                                                       インフィニバンドで比較

    レスポンス時間の短縮により、生産性向上
                                                          * Common performance
                       80                                 benchmark
                                                            Time to run 1 million SKU
                       70
                                               Reduced    through
                       60                                   fulfillment planning operation
                                               run-time
                       50
                                                by 62%
   Minutes             40      Gigabit                    Source:
                       30      Ethernet
                       20
                       10                  InfiniBand

                                  One million SKU*
© 2013 Mellanox Technologies                                                                       6
Enterprise Data Centerの最適化におけるMSとの連携

 SMB Direct
 • Windows Server 2012では、サーバ・アプリケーションの性能向上に効果的なリモート・
   ファイル・ストレージを提供
    - SMB Direct (SMB – Server Message Block)
 • InfiniBand RDMAまたはEthernet RoCEを活用することで最高の性能を実現
    - RoCE – RDMA over Converged Ethernet
    - InfiniBand及びRoCE用ドライバは Windows Server 2012に組み込まれて提供
 • 公表されている利用例
    - 高速データベース(SQL+SMB), クラウド環境のIO統合(Hyper-V+SMB)

 • 10G Ethernetの5倍の性能(Windows Server 2012 Betaでの参考性能結果)
    - PCIe Gen2サーバで計測されたQBR InfiniBandと一般的な10Gbps Ethernetの比較
    - PCIe Gen3サーバで計測されたFBR InfiniBandでは10GbEの10倍の性能

 • デモンストレーション環境を提供可能

 © 2013 Mellanox Technologies                                   7
SMB Direct (SMB over RDMA)とは?

 新しい企業ユーザー向けSMBファイルストレージ
    • ファイルストレージの処理に要するCPU負荷を最小化
    • 低いレインテンシーによって高速NICの特長を最大限活用          File Client                   File Server
    • Fibre Channelに相当する機能を低価格に実現
                                            Application

                                                           User
 従来からのSMBファイルストレージの強み
                                                           Kernel
    • 簡単なプロビジョニング、管理、移行
    • コンバージドネットワークの活用                        SMB Client                        SMB Server
    • アプリケーションや管理者設定の変更の必要無し

                                            Network w/               Network w/        NTFS
                                           RDMA support             RDMA support       SCSI
 ハードウェアの要件
    • RDMAを利用できるネットワークインタフェース
    • InfiniBandもしくはRoCE (Ethernet)のサポート
                                                  RDMA                RDMA
                                                 Adapter             Adapter            Disk

 ロードバランスやフェイルオーバーには
  SMBマルチチャネルを使用


© 2013 Mellanox Technologies                                                                8
Windows Server 2012で完成されたソリューション

1. RDMAを活用したSMB Direct (InfiniBand, RoCE)
   • CPUの負荷軽減・低レイテンシー(1μs)と広帯域(56Gbps)の両立
2. SMB マルチチャネル
                                                                Hyper-V Parent 1

                                                                    Config

                                                                     VHD
                                                                                 Child 1

                                                                                  Disk
                                                                                                …                 Hyper-V Parent N

                                                                                                                   Config

                                                                                                                    VHD
                                                                                                                                  Child N

                                                                                                                                    Disk

   • 複数のインタフェースでロードバランス
                                                                       1
   • 複数のインタフェースでフェイルオーバー                                                                                                     2
                                                                     NIC1         NIC2                              NIC1           NIC2
3. SMBの透過的なフェールオーバー
   • 計画的/非計画的なイベントの両方にゼロ・ダウンタイムで対応
4. SMB スケール・アウト特性                               Administrator
                                                                                 Switch 1                         Switch 2
   • クラスタ・ノードに渡って動的なファイル共有                  6                   7
5. Clustered Shared Volumes (CSV)
   • 仮想マシン構成ファイルへの透過的なアクセス                                                   NIC1             NIC2          NIC1           NIC2
      切り替えもSMBで高速化
                                                       8
6. SMB PowerShell                                                            4                                               4
                                                                                     Share
   • ファイル共有の管理                                                                                         3
                                                                                                                   Share

   • SMB機能のイネーブル/ディセーブル                                                                 CSV                         CSV
                                                                                 5
7. SMB Performance Counters                                                                                           5
                                                                             File Server 1                  File Server 2
   • ストレージ性能をリアルタイムに可視化
   • disk countersに相当する機能の提供
                                                                                 Disk           Disk       Disk            Disk
8. SMBイベント管理
                                                                                           Shared SAS Storage

 © 2013 Mellanox Technologies                                                                                                        9
Microsoft’s Cluster in the Box (CiB) Reference Design

                                                                 Mellanox VPI Interconnect Solutions
 At least one node and storage always                                10GE, RoCE or Infiniband
                                                 Network                                                                  Network
  available, despite failure or replacement of        x8 PCIe                Server Enclosure                        x8 PCIe
  any component.                                      Server A                                                       Server B
                                                                          1/10G Ethernet cluster connect
                                                     CPU                                                                 CPU

 Dual power domains                                        x8 PCIe
                                                                             x4 SAS
                                                                                                                            x8 PCIe

                                                    Storage                  through
                                                                             x4 SAS
                                                   Controller                                                          Storage
                                                                             midplane
                                                                             through                                  Controller
 Internal interconnect between nodes,           x4 SAS
                                                                             midplane              B                        x4 SAS

  controllers                                                SAS          A                        port          SAS
                                                           Expander               0   1   … 23     s           Expander
                                                                          port
                                                                          s
 Flexible PCIe slot for LAN options
 External SAS ports for JBOD expansion                         A ports
                                                                                 External JBOD
                                                                                                           B ports
                                                             SAS                                                 SAS
                                                           Expander               0   1   … 23                 Expander
 Office-level power and acoustics for entry-
  level NAS                                                                      Additional JBODs
                                                                                         …
© 2013 Mellanox Technologies                                                                                                        10
ハードウェアによるI/O Virtualizationのメリット

                        VM       VM          VM                   VM        VM         VM                VSA
                        OS       OS          OS                   OS        OS          OS             vHCA
                                                                                                                       Direct


                       Virtual File System                          Virtual File




                                                                                                      RDM
                             (VMFS)




                                                                                                       A
                                                                  System (VMFS)

                                                                        RDMA
                                                      To remote
                                                        VSAs            RDMA (for data replication)               Local
                                 8Gb FC / 10GbE
         SAN                     iSCSI HBA/CNA                                                                 Disks/Flash
                                                                        Mellanox ConnectX 40/56Gbps
                                                                       (same one used for networking)

 VMのI/Oボトルネック                                     VMに対する十分なI/O性能
  • iSCSI: 400MB/s and 50K IOPs                    • ~5,000MB/s and 190K IOPs with VMFS
  • FC: 800MB/s and 100-200K IOPs                  • 700K IOPs with SR-IOV on guest VM
 拡張性の無いI/O                                        制限の無い拡張性
  • Same performance limit with Multiple VMs       • Single target can handle a Million IOPs
  • SAN performance bottlenecks                    • Multiple targets scale linearly
 IT機器数が多く非効率な投資                                   IT機器導入コストと管理コストの最適化
  • Millions of $s for FC SAN Infrastructure       • Use the same server Hardware, same NIC/HCA,
  • High operational expenses                        and just add disks
© 2013 Mellanox Technologies                                                                                            11
Products Announced: X-IO Storage
                           More than 15GB/sec Throughput Demonstrated
 Remote Storage Systems
 Windows Server 2012 with SMB 3.0
 PCIe 3.0 based Servers - HP DL380p G8
 Mellanox 56Gbps FDR Infiniband adapters & Switches




© 2013 Mellanox Technologies                                            12
Products Announced: Supermicro

                  More than 10GB/sec Throughput Demonstrated under Hyper-V

   Hyper-V with Windows Server 2012 RC
   Supermicro PCIe 3.0 based Servers, File Server & JBOD
   LSI MegaRAID SAS 9285 storage controllers with LSI FastPath I/O acceleration software
   OCZ’s Talos 2R SSDs




© 2013 Mellanox Technologies                                                                13
Thank You




© 2013 Mellanox Technologies               14

More Related Content

PDF
B14 SQL Server over SMB using infiniBand and SSD by Mario Broodbakker/市川明
PDF
VMwareの歩き方 ~SDDCに向けた最強アンダーレイとは?
PDF
Brocade PartnerWebinar: Network Edge キャンパス・スイッチ新製品&新機能、および有線&無線統合ソリューションアップデー...
PDF
三協立山の仮想化基板の成長を支えるイーサネット・ファブリック
PDF
okuyama 勉強会 20110928
PDF
本当は恐いビッグデータとネットワークの深~い関係 ビッグデータ時代に耐えうるデータセンターとは?
PDF
SAN デザイン講座
PDF
「小さくはじめる→成功する→全体最適へ→成功する」が黄金ルール
B14 SQL Server over SMB using infiniBand and SSD by Mario Broodbakker/市川明
VMwareの歩き方 ~SDDCに向けた最強アンダーレイとは?
Brocade PartnerWebinar: Network Edge キャンパス・スイッチ新製品&新機能、および有線&無線統合ソリューションアップデー...
三協立山の仮想化基板の成長を支えるイーサネット・ファブリック
okuyama 勉強会 20110928
本当は恐いビッグデータとネットワークの深~い関係 ビッグデータ時代に耐えうるデータセンターとは?
SAN デザイン講座
「小さくはじめる→成功する→全体最適へ→成功する」が黄金ルール

What's hot (20)

PDF
~ストレージの価値を最大化!~次世代ストレージの導入ベネフィットを無駄なく享受するために、“ネットワーク”視点で、知っておくべきこと
PDF
[INSIGHT OUT 2011] C22 RAC buffer sharing の仕組み(yamashita)
PDF
リスク知らずのプライベート・クラウド移行術 ~『攻める情シス』のための現実解とSDxへの進化~
PDF
ストレージ・ネットワークがわかるwebセミナー『古くて新しいファイバーチャネルの “今”』
PDF
ストレージ管理者が今、押さえておくべきネットワーク基本の「キ」 ~必要なのは性能とシンプルさ。その極意とは?~
PDF
【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション
PDF
AppFormix勉強会資料
PDF
Oracle RACの弱点を克服する infinibandを使ったクラスターテクノロジー
PDF
[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...
PDF
20180417_VxRailCC_NSX_vmware内野様
PDF
[dbts-2014-tokyo] 目指せExadata!! Oracle DB高速化を目指した構成
PDF
[INSIGHT OUT 2011] c25 Super RACへの道 infinibandを使ったクラスターテクノロジー紹介
PDF
VIOPS01: VMwareによる仮想化とネットワーク
PDF
SOFTLAYERベアメタル + Fusion ioMemory
PDF
【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!
PDF
サーバを仮想化したのにネットワークはこれまで通りでいい?←いや、いや、そんなわけないでしょ
PDF
BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜
PDF
KDL主催セミナー 20120215
PDF
2012年上半期 AWSパートナーアワード受賞社資料:Hadoopによるバッチ処理の導入on AWS (ノーチラス・テクノロジーズ様)
PDF
VIOPS01: Xenを用いたホスティングサービス
~ストレージの価値を最大化!~次世代ストレージの導入ベネフィットを無駄なく享受するために、“ネットワーク”視点で、知っておくべきこと
[INSIGHT OUT 2011] C22 RAC buffer sharing の仕組み(yamashita)
リスク知らずのプライベート・クラウド移行術 ~『攻める情シス』のための現実解とSDxへの進化~
ストレージ・ネットワークがわかるwebセミナー『古くて新しいファイバーチャネルの “今”』
ストレージ管理者が今、押さえておくべきネットワーク基本の「キ」 ~必要なのは性能とシンプルさ。その極意とは?~
【Interop Tokyo 2016】 エコシステムですすめる レノボのSDIソリューション
AppFormix勉強会資料
Oracle RACの弱点を克服する infinibandを使ったクラスターテクノロジー
[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...
20180417_VxRailCC_NSX_vmware内野様
[dbts-2014-tokyo] 目指せExadata!! Oracle DB高速化を目指した構成
[INSIGHT OUT 2011] c25 Super RACへの道 infinibandを使ったクラスターテクノロジー紹介
VIOPS01: VMwareによる仮想化とネットワーク
SOFTLAYERベアメタル + Fusion ioMemory
【Interop Tokyo 2016】 SDN/Cloud 仮想環境に、この二つさえあれば、他のファイアウォールはもういらない!
サーバを仮想化したのにネットワークはこれまで通りでいい?←いや、いや、そんなわけないでしょ
BETTER TOGETHER 〜VMware NSXとJuniperデバイスを繋いでみよう!〜
KDL主催セミナー 20120215
2012年上半期 AWSパートナーアワード受賞社資料:Hadoopによるバッチ処理の導入on AWS (ノーチラス・テクノロジーズ様)
VIOPS01: Xenを用いたホスティングサービス
Ad

Similar to RDMA for Windows Server 2012 (20)

PDF
Snr005 レノボだから実現
PDF
BOSTON Viridis for Hadoop by ELSA Japan
PDF
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
PDF
Intel True Scale Fabric
PDF
DXを支えるスケールアウト型NoSQL/SQLハイブリッドデータベース GridDB
PDF
第9回「Fusion-io ioDriveがもたらした新世界とテクノロジーの肝」(2011/10/06 on しすなま!) ②IBM資料
PDF
分散KVSをサービス化してみた ~Okuyama(KVS)もFusion-IO(ioDrive)もあるんだよ~
PDF
[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)
PDF
OpenStackを利用したNFVの商用化 - OpenStack最新情報セミナー 2017年7月
PDF
サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~
PDF
Boston Viridis - Carxeda EnergyCore SoC (ARM Cortex A9) based cluster applian...
PDF
【GridDB入門】 IoT、そしてサイバー・フィジカル・システムを支える オープンソースデータベース GridDB ~ こだわりの理由と実現方法のポイント
PPTX
Dell emc highperformancevirtualinfracommunitymeetup_20180621publish
PDF
Fpga local 20130322
PDF
インテルが考える次世代ファブリック
PDF
IoT時代を迎えて、あなたのシステムは今までのDBで充分ですか?~ GridDBとその適用事例紹介 ~
PDF
Oracle Database / Exadata Cloud 技術情報(Oracle Cloudウェビナーシリーズ: 2020年7月9日)
PDF
【Interop Tokyo 2015】最新セキュリティサーベイからみるトレンドと解決策
PDF
Crooz meet fusion io3 open
PDF
Exadata with persistent memory an epic journey jp
Snr005 レノボだから実現
BOSTON Viridis for Hadoop by ELSA Japan
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
Intel True Scale Fabric
DXを支えるスケールアウト型NoSQL/SQLハイブリッドデータベース GridDB
第9回「Fusion-io ioDriveがもたらした新世界とテクノロジーの肝」(2011/10/06 on しすなま!) ②IBM資料
分散KVSをサービス化してみた ~Okuyama(KVS)もFusion-IO(ioDrive)もあるんだよ~
[INSIGHT OUT 2011] A12 ひとつのデータベース技術では生き残れない part1 カラムナーデータベース(Shinkubo)
OpenStackを利用したNFVの商用化 - OpenStack最新情報セミナー 2017年7月
サイバーフィジカルシステム(CPS)に必要なデータ基盤を考える ~ NoSQL/SQLハイブリット型GridDB ~
Boston Viridis - Carxeda EnergyCore SoC (ARM Cortex A9) based cluster applian...
【GridDB入門】 IoT、そしてサイバー・フィジカル・システムを支える オープンソースデータベース GridDB ~ こだわりの理由と実現方法のポイント
Dell emc highperformancevirtualinfracommunitymeetup_20180621publish
Fpga local 20130322
インテルが考える次世代ファブリック
IoT時代を迎えて、あなたのシステムは今までのDBで充分ですか?~ GridDBとその適用事例紹介 ~
Oracle Database / Exadata Cloud 技術情報(Oracle Cloudウェビナーシリーズ: 2020年7月9日)
【Interop Tokyo 2015】最新セキュリティサーベイからみるトレンドと解決策
Crooz meet fusion io3 open
Exadata with persistent memory an epic journey jp
Ad

More from Naoto MATSUMOTO (20)

PDF
Alder Lake-S CPU Temperature Monitoring
PDF
CPU製品出荷状況と消費電力の見える化
PDF
5Gの見える化
PDF
2023年以降のサーバークラスタリング設計(メモ)
PDF
防災を考慮した水中調査の一考察
PDF
旅するパケットの見える化
PDF
LTE-M/NB IoTを試してみる nRF9160/Thingy:91
PDF
災害時における無線モニタリングによる社会インフラの見える化
PDF
BeautifulSoup / selenium Deep dive
PDF
AMDGPU ROCm Deep dive
PDF
Network Adapter Deep dive
PDF
RTL2838 DVB-T Deep dive
PDF
x86_64 Hardware Deep dive
PDF
ADS-B, AIS, APRS cheatsheet
PDF
curl --http3 cheatsheet
PDF
3/4G USB modem Cheat Sheet
PDF
How To Train Your ARM(SBC)
PDF
全国におけるCOVID-19対策の見える化 ~宿泊業の場合~
PDF
我が国の電波の使用状況/携帯電話向け割当 (2019年3月1日現在)
PDF
私たちに訪れる(かもしれない)未来と計算機によるモノコトの見える化
Alder Lake-S CPU Temperature Monitoring
CPU製品出荷状況と消費電力の見える化
5Gの見える化
2023年以降のサーバークラスタリング設計(メモ)
防災を考慮した水中調査の一考察
旅するパケットの見える化
LTE-M/NB IoTを試してみる nRF9160/Thingy:91
災害時における無線モニタリングによる社会インフラの見える化
BeautifulSoup / selenium Deep dive
AMDGPU ROCm Deep dive
Network Adapter Deep dive
RTL2838 DVB-T Deep dive
x86_64 Hardware Deep dive
ADS-B, AIS, APRS cheatsheet
curl --http3 cheatsheet
3/4G USB modem Cheat Sheet
How To Train Your ARM(SBC)
全国におけるCOVID-19対策の見える化 ~宿泊業の場合~
我が国の電波の使用状況/携帯電話向け割当 (2019年3月1日現在)
私たちに訪れる(かもしれない)未来と計算機によるモノコトの見える化

RDMA for Windows Server 2012

  • 1. RDMA for Windows Server 2012 メラノックステクノロジーズジャパン株式会社 IB-Day 6 : February 1st, 2013
  • 2. 最先端のE2Eソリューションを実現するラインナップ Storage Server / Compute Switch / Gateway Front / Back-End Virtual Protocol Interconnect Virtual Protocol Interconnect 56G IB & FCoIB 56G InfiniBand 10/40/56GbE & FCoE 10/40/56GbE Fibre Channel Comprehensive End-to-End InfiniBand and Ethernet Portfolio ICs Adapter Cards Switches/Gateways Host/Fabric Software Cables © 2013 Mellanox Technologies 2
  • 3. Solid State Deviceの特性を活かすストレージサーバ  フラッシュメモリのコモディティ化はSSDストレージの利用を促進 • SSDは共有ストレージへのアクセス競合を緩和し、ランダムI/O性能を劇的に向上  SSDは最小のレイテンシーと低消費電力のストレージを実現 • 最高性能だがまだ高価なSSDを低価格で利用するには、SSDのアプリケーションへの 応答性能を妨げない、低レイテンシーなインターコネクト技術による外部共有が必須 Component Latency (usec) InfiniBand 0.7 Ethernet RDMA (RoCE) 1.3 Ethernet TCP 6 Fibre Channel 20 SSD Read 25 Disk Read 6000 Total: 45usec Total: 25.7usec Fibre Channelでは、 SSDのアドバンテージを阻害してしまう InfiniBandとRDMAベースのEthernetがSSDの共有には最適! © 2013 Mellanox Technologies 3
  • 4. Storage Acceleration Serverによるストレージ高速化 1、既存の外付けストレージ共有システム 2、ストレージサーバ経由接続型システム アプリケーション/DB サーバ アプリケーション/ DB サーバ SSD SSD SSD SSD SSD SSD SSD SSD SSD SSD SSD SSD 40/56Gbps 4Gbps FC Switch InfiniBand Switch ストレージ SSD SSD アクセラレーション サーバ IB+DRBDでミラーリング FC RAID ストレージの統合に際しては、処理が特定のI/Oに集中しがちになるので、 SSDのような高速ドライブの必要性が高まる。 FC RAID  FC RAID搭載のキャッシュメモリは数GBと小容量  SSDを利用することでキャッシュヒット率を大幅に改善可能  DBのマスターテーブルなどへのアクセスが遅い  DBのマスターテーブルもSSDキャッシュから読込み可能  最新の高価な8Gbps FCでもIOボトルネックが発生  8Gbps FCの7倍のスループット、50万IOPS/SSDの性能  高性能なSSDの完全なフェイルオーバーができない  SSDをレプリケーションモードにすることで二重化が可能  FCにSSDを装着しても通信遅延で性能は半減  SSD搭載サーバとIBで接続、直付けと同等の応答性能 © 2013 Mellanox Technologies 4
  • 5. OracleのEngineered Systemsで活用されるInfiniBand  Oracle Weblogic Server Grid • 30 Compute Servers • 360 Compute Cores • 2.8 TB DRAM • 960 GB Solid-State Disk  Mellanox InfiniBand Network • 40 Gb/s InfiniBand Links • 1.2 micro second latency • 10Gb/s Ethernet connectivity to data center  Integrated Storage Appliance • Central storage for system images • Clustered for HA • 40 TB SAS disk storage • 4 TB read cache • 72 GB write cache © 2013 Mellanox Technologies 5
  • 6. Oracle RACにインフィニバンドを採用するメリット  I/O性能を33%向上  DB処理能力を62%向上 1Gb/s EthernetとFibreChannelの コンビネーションと  システムコストを35%削減 インフィニバンドで比較  レスポンス時間の短縮により、生産性向上 * Common performance 80 benchmark Time to run 1 million SKU 70 Reduced through 60 fulfillment planning operation run-time 50 by 62% Minutes 40 Gigabit Source: 30 Ethernet 20 10 InfiniBand One million SKU* © 2013 Mellanox Technologies 6
  • 7. Enterprise Data Centerの最適化におけるMSとの連携  SMB Direct • Windows Server 2012では、サーバ・アプリケーションの性能向上に効果的なリモート・ ファイル・ストレージを提供 - SMB Direct (SMB – Server Message Block) • InfiniBand RDMAまたはEthernet RoCEを活用することで最高の性能を実現 - RoCE – RDMA over Converged Ethernet - InfiniBand及びRoCE用ドライバは Windows Server 2012に組み込まれて提供 • 公表されている利用例 - 高速データベース(SQL+SMB), クラウド環境のIO統合(Hyper-V+SMB) • 10G Ethernetの5倍の性能(Windows Server 2012 Betaでの参考性能結果) - PCIe Gen2サーバで計測されたQBR InfiniBandと一般的な10Gbps Ethernetの比較 - PCIe Gen3サーバで計測されたFBR InfiniBandでは10GbEの10倍の性能 • デモンストレーション環境を提供可能 © 2013 Mellanox Technologies 7
  • 8. SMB Direct (SMB over RDMA)とは?  新しい企業ユーザー向けSMBファイルストレージ • ファイルストレージの処理に要するCPU負荷を最小化 • 低いレインテンシーによって高速NICの特長を最大限活用 File Client File Server • Fibre Channelに相当する機能を低価格に実現 Application User  従来からのSMBファイルストレージの強み Kernel • 簡単なプロビジョニング、管理、移行 • コンバージドネットワークの活用 SMB Client SMB Server • アプリケーションや管理者設定の変更の必要無し Network w/ Network w/ NTFS RDMA support RDMA support SCSI  ハードウェアの要件 • RDMAを利用できるネットワークインタフェース • InfiniBandもしくはRoCE (Ethernet)のサポート RDMA RDMA Adapter Adapter Disk  ロードバランスやフェイルオーバーには SMBマルチチャネルを使用 © 2013 Mellanox Technologies 8
  • 9. Windows Server 2012で完成されたソリューション 1. RDMAを活用したSMB Direct (InfiniBand, RoCE) • CPUの負荷軽減・低レイテンシー(1μs)と広帯域(56Gbps)の両立 2. SMB マルチチャネル Hyper-V Parent 1 Config VHD Child 1 Disk … Hyper-V Parent N Config VHD Child N Disk • 複数のインタフェースでロードバランス 1 • 複数のインタフェースでフェイルオーバー 2 NIC1 NIC2 NIC1 NIC2 3. SMBの透過的なフェールオーバー • 計画的/非計画的なイベントの両方にゼロ・ダウンタイムで対応 4. SMB スケール・アウト特性 Administrator Switch 1 Switch 2 • クラスタ・ノードに渡って動的なファイル共有 6 7 5. Clustered Shared Volumes (CSV) • 仮想マシン構成ファイルへの透過的なアクセス NIC1 NIC2 NIC1 NIC2 切り替えもSMBで高速化 8 6. SMB PowerShell 4 4 Share • ファイル共有の管理 3 Share • SMB機能のイネーブル/ディセーブル CSV CSV 5 7. SMB Performance Counters 5 File Server 1 File Server 2 • ストレージ性能をリアルタイムに可視化 • disk countersに相当する機能の提供 Disk Disk Disk Disk 8. SMBイベント管理 Shared SAS Storage © 2013 Mellanox Technologies 9
  • 10. Microsoft’s Cluster in the Box (CiB) Reference Design Mellanox VPI Interconnect Solutions  At least one node and storage always 10GE, RoCE or Infiniband Network Network available, despite failure or replacement of x8 PCIe Server Enclosure x8 PCIe any component. Server A Server B 1/10G Ethernet cluster connect CPU CPU  Dual power domains x8 PCIe x4 SAS x8 PCIe Storage through x4 SAS Controller Storage midplane through Controller  Internal interconnect between nodes, x4 SAS midplane B x4 SAS controllers SAS A port SAS Expander 0 1 … 23 s Expander port s  Flexible PCIe slot for LAN options  External SAS ports for JBOD expansion A ports External JBOD B ports SAS SAS Expander 0 1 … 23 Expander  Office-level power and acoustics for entry- level NAS Additional JBODs … © 2013 Mellanox Technologies 10
  • 11. ハードウェアによるI/O Virtualizationのメリット VM VM VM VM VM VM VSA OS OS OS OS OS OS vHCA Direct Virtual File System Virtual File RDM (VMFS) A System (VMFS) RDMA To remote VSAs RDMA (for data replication) Local 8Gb FC / 10GbE SAN iSCSI HBA/CNA Disks/Flash Mellanox ConnectX 40/56Gbps (same one used for networking)  VMのI/Oボトルネック  VMに対する十分なI/O性能 • iSCSI: 400MB/s and 50K IOPs • ~5,000MB/s and 190K IOPs with VMFS • FC: 800MB/s and 100-200K IOPs • 700K IOPs with SR-IOV on guest VM  拡張性の無いI/O  制限の無い拡張性 • Same performance limit with Multiple VMs • Single target can handle a Million IOPs • SAN performance bottlenecks • Multiple targets scale linearly  IT機器数が多く非効率な投資  IT機器導入コストと管理コストの最適化 • Millions of $s for FC SAN Infrastructure • Use the same server Hardware, same NIC/HCA, • High operational expenses and just add disks © 2013 Mellanox Technologies 11
  • 12. Products Announced: X-IO Storage More than 15GB/sec Throughput Demonstrated  Remote Storage Systems  Windows Server 2012 with SMB 3.0  PCIe 3.0 based Servers - HP DL380p G8  Mellanox 56Gbps FDR Infiniband adapters & Switches © 2013 Mellanox Technologies 12
  • 13. Products Announced: Supermicro More than 10GB/sec Throughput Demonstrated under Hyper-V  Hyper-V with Windows Server 2012 RC  Supermicro PCIe 3.0 based Servers, File Server & JBOD  LSI MegaRAID SAS 9285 storage controllers with LSI FastPath I/O acceleration software  OCZ’s Talos 2R SSDs © 2013 Mellanox Technologies 13
  • 14. Thank You © 2013 Mellanox Technologies 14