Submit Search
Singularityで分散深層学習
15 likes
9,878 views
Hitoshi Sato
第一回 Singularity勉強会
Engineering
Read more
1 of 31
Download now
Downloaded 82 times
1
2
3
4
5
6
7
Most read
8
9
10
Most read
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Most read
31
More Related Content
PPTX
ネットストーカー御用達OSINTツールBlackBirdを触ってみた.pptx
Shota Shinogi
PDF
ChatGPTは思ったほど賢くない
Carnot Inc.
PDF
ARM CPUにおけるSIMDを用いた高速計算入門
Fixstars Corporation
PDF
協調フィルタリング入門
hoxo_m
PPTX
Slurmのジョブスケジューリングと実装
Ryuichi Sakamoto
PDF
推薦アルゴリズムの今までとこれから
cyberagent
PDF
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
PDF
Hopper アーキテクチャで、変わること、変わらないこと
NVIDIA Japan
ネットストーカー御用達OSINTツールBlackBirdを触ってみた.pptx
Shota Shinogi
ChatGPTは思ったほど賢くない
Carnot Inc.
ARM CPUにおけるSIMDを用いた高速計算入門
Fixstars Corporation
協調フィルタリング入門
hoxo_m
Slurmのジョブスケジューリングと実装
Ryuichi Sakamoto
推薦アルゴリズムの今までとこれから
cyberagent
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
Hopper アーキテクチャで、変わること、変わらないこと
NVIDIA Japan
What's hot
(20)
PDF
最適化超入門
Takami Sato
PPTX
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
PPTX
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
PDF
プログラムを高速化する話Ⅱ 〜GPGPU編〜
京大 マイコンクラブ
PDF
DNNコンパイラの歩みと最近の動向 〜TVMを中心に〜
Takeo Imai
PDF
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
PDF
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
PDF
CUDAのアセンブリ言語基礎のまとめ PTXとSASSの概説
Takateru Yamagishi
PDF
TVM の紹介
Masahiro Masuda
PPTX
画像処理AIを用いた異常検知
Hideo Terada
PDF
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
Preferred Networks
PDF
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
PDF
いまさら聞けない!CUDA高速化入門
Fixstars Corporation
PDF
2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層
智啓 出川
PDF
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
PDF
一般向けのDeep Learning
Preferred Networks
PPTX
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
Deep Learning JP
PDF
【プレゼン】見やすいプレゼン資料の作り方【初心者用】
MOCKS | Yuta Morishige
PPTX
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
Kosuke Shinoda
PPTX
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
最適化超入門
Takami Sato
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
プログラムを高速化する話Ⅱ 〜GPGPU編〜
京大 マイコンクラブ
DNNコンパイラの歩みと最近の動向 〜TVMを中心に〜
Takeo Imai
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
CUDAのアセンブリ言語基礎のまとめ PTXとSASSの概説
Takateru Yamagishi
TVM の紹介
Masahiro Masuda
画像処理AIを用いた異常検知
Hideo Terada
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
Preferred Networks
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
いまさら聞けない!CUDA高速化入門
Fixstars Corporation
2015年度GPGPU実践プログラミング 第5回 GPUのメモリ階層
智啓 出川
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
一般向けのDeep Learning
Preferred Networks
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
Deep Learning JP
【プレゼン】見やすいプレゼン資料の作り方【初心者用】
MOCKS | Yuta Morishige
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
Kosuke Shinoda
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
Ad
Similar to Singularityで分散深層学習
(20)
PDF
GTC Japan 2017
Hitoshi Sato
PDF
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
Hitoshi Sato
PDF
20170421 tensor flowusergroup
ManaMurakami1
PDF
[db analytics showcase Sapporo 2017] B14: GPU コンピューティング最前線 by エヌビディア 佐々木邦暢
Insight Technology, Inc.
PDF
【A-1】AIを支えるGPUコンピューティングの今
Developers Summit
PDF
A100 GPU 搭載! P4d インスタンス使いこなしのコツ
Kuninobu SaSaki
PDF
GPUディープラーニング最新情報
ReNom User Group
PDF
機械学習とこれを支える並列計算: ディープラーニング・スーパーコンピューターの応用について
ハイシンク創研 / Laboratory of Hi-Think Corporation
PDF
20170726 py data.tokyo
ManaMurakami1
PDF
GTC 2020 発表内容まとめ
Aya Owosekun
PDF
GTC 2020 発表内容まとめ
NVIDIA Japan
PDF
MII conference177 nvidia
Tak Izaki
PDF
1072: アプリケーション開発を加速するCUDAライブラリ
NVIDIA Japan
PDF
Rescale で Singularity を使ってみよう!
Shinnosuke Furuya
PDF
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA Japan
PDF
NVIDIA GPUで作るHeadless X11 Linux
Tomoki SHISHIKURA
PDF
NVIDIA deep learning最新情報in沖縄
Tak Izaki
PDF
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
PDF
Cuda
Shumpei Hozumi
PDF
200625material naruse
RCCSRENKEI
GTC Japan 2017
Hitoshi Sato
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
Hitoshi Sato
20170421 tensor flowusergroup
ManaMurakami1
[db analytics showcase Sapporo 2017] B14: GPU コンピューティング最前線 by エヌビディア 佐々木邦暢
Insight Technology, Inc.
【A-1】AIを支えるGPUコンピューティングの今
Developers Summit
A100 GPU 搭載! P4d インスタンス使いこなしのコツ
Kuninobu SaSaki
GPUディープラーニング最新情報
ReNom User Group
機械学習とこれを支える並列計算: ディープラーニング・スーパーコンピューターの応用について
ハイシンク創研 / Laboratory of Hi-Think Corporation
20170726 py data.tokyo
ManaMurakami1
GTC 2020 発表内容まとめ
Aya Owosekun
GTC 2020 発表内容まとめ
NVIDIA Japan
MII conference177 nvidia
Tak Izaki
1072: アプリケーション開発を加速するCUDAライブラリ
NVIDIA Japan
Rescale で Singularity を使ってみよう!
Shinnosuke Furuya
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA Japan
NVIDIA GPUで作るHeadless X11 Linux
Tomoki SHISHIKURA
NVIDIA deep learning最新情報in沖縄
Tak Izaki
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
Cuda
Shumpei Hozumi
200625material naruse
RCCSRENKEI
Ad
More from Hitoshi Sato
(8)
PDF
ABCI: AI Bridging Cloud Infrastructure for Scalable AI/Big Data
Hitoshi Sato
PDF
AI橋渡しクラウド(ABCI)における高性能計算とAI/ビッグデータ処理の融合
Hitoshi Sato
PDF
Building Software Ecosystems for AI Cloud using Singularity HPC Container
Hitoshi Sato
PDF
産総研AIクラウドでChainerMN
Hitoshi Sato
PDF
Japan Lustre User Group 2014
Hitoshi Sato
PDF
MemoryPlus Workshop
Hitoshi Sato
PDF
LUG 2014
Hitoshi Sato
PDF
GTC Japan 2014
Hitoshi Sato
ABCI: AI Bridging Cloud Infrastructure for Scalable AI/Big Data
Hitoshi Sato
AI橋渡しクラウド(ABCI)における高性能計算とAI/ビッグデータ処理の融合
Hitoshi Sato
Building Software Ecosystems for AI Cloud using Singularity HPC Container
Hitoshi Sato
産総研AIクラウドでChainerMN
Hitoshi Sato
Japan Lustre User Group 2014
Hitoshi Sato
MemoryPlus Workshop
Hitoshi Sato
LUG 2014
Hitoshi Sato
GTC Japan 2014
Hitoshi Sato
Singularityで分散深層学習
1.
Singulairtyで分散深層学習 産業技術総合研究所 ⼈⼯知能研究センター ⼈⼯知能クラウド研究チーム 佐藤 仁 第⼀回
Singularity勉強会 2018年1⽉10⽇ 1
2.
Singularityとの出会い 2 早朝着 深夜便発 某社 某社
某社 2016年12⽉のある⽇,ベイエリアにて
3.
⼈⼯知能技術の発展には アルゴリズム×ビッグデータ×計算基盤 の⼀体的な進展が不可⽋ 3 ビッグデータ アルゴリズム 計算基盤 深層学習, 機械学習, etc. クラウド,
スパコン, etc. 研究開発・実証・橋渡しを⾒据えたAIプラットフォームの構築・展開
4.
4 NEDOプロ(NAIROBI) ⼈⼯知能研究開発・実証 のための研究テストベッド H28.6運⽤開始 産総研AIクラウド(AAIC) 産総研と連携機関による ⼈⼯知能実証のための 共⽤プラットフォーム H29.6運⽤開始 AI橋渡しクラウド(ABCI) ⾼密度・省エネ構成 運⽤技術・ノウハウ うまくいった成果を ⼤規模実証 複数の産学官による オープンイノベーション プラットフォーム 最初からIDCへの技術移 転を⾒越した設計・運⽤ H30.3納⼊(予定) IDCなどに 商⽤展開 AIRCの計算基盤ロードマップ グリーンITプロ 実サービス化 NVIDIA Tesla M40
x 32 NVIDIA Tesla P100 x 400 w/ IB NVIDIA Tesla V100 たくさん w/ IB
5.
5 産総研AIクラウド(通称AAIC)とは? • 400x NVIDIA
Tesla P100s and Infiniband EDR accelerate various AI workloads including ML (Machine Learning) and DL (Deep Learning). • Advanced data analytics leveraged by 4PiB shared Big Data Storage and Apache Spark w/ its ecosystem. AI Computation System Large Capacity Storage System Computation Nodes (w/GPU) x50 • Intel Xeon E5 v4 x2 • NVIDIA Tesla P100 (NVLink) x8 • 256GiB Memory, 480GB SSD Computation Nodes (w/o GPU) x68 • Intel Xeon E5 v4 x2 • 256GiB Memory, 480GB SSD Mgmt & Service Nodes x16 Interactive Nodes x2 400 Pascal GPUs 30TB Memory 56TB SSD DDN SFA14K • File server (w/10GbEx2, IB EDRx4) x4 • 8TB 7.2Krpm NL-SAS HDD x730 • GRIDScaler (GPFS) Computation Network Mellanox CS7520 Director Switch • EDR (100Gbps) x216 Bi-direction 200Gbps Full bi-section bandwidth Service and Management Network IB EDR (100Gbps) IB EDR (100Gbps) GbE or 10GbE GbE or 10GbE Firewall • FortiGate 3815D x2 • FortiAnalyzer 1000E x2 UTM Firewall 40-100Gbps class 10GbE SINET5 Internet Connection 10-100GbE >4PiB effective RW100GB/s 既存のGPUスパコン に類似した構成
6.
GPU計算ノードの構成 • NVIDIA TESLA
P100 x 8 • Intel Xeon E5-2630 v4 x 2 ソケット – ソケットあたり10コア – Hyper Threading (HT) で動作 – ノードあたり40コアにみえる • 256GiBのメモリ • 480GBのSSD • EDR Infiniband – 計算ノード – GPFSストレージへ接続 6 Machine (256GB total) NUMANode P#0 (128GB) Package P#0 L3 (25MB) L2 (256KB) L1d (32KB) L1i (32KB) Core P#0 PU P#0 PU P#20 L2 (256KB) L1d (32KB) L1i (32KB) Core P#1 PU P#1 PU P#21 L2 (256KB) L1d (32KB) L1i (32KB) Core P#2 PU P#2 PU P#22 L2 (256KB) L1d (32KB) L1i (32KB) Core P#3 PU P#3 PU P#23 L2 (256KB) L1d (32KB) L1i (32KB) Core P#4 PU P#4 PU P#24 L2 (256KB) L1d (32KB) L1i (32KB) Core P#8 PU P#5 PU P#25 L2 (256KB) L1d (32KB) L1i (32KB) Core P#9 PU P#6 PU P#26 L2 (256KB) L1d (32KB) L1i (32KB) Core P#10 PU P#7 PU P#27 L2 (256KB) L1d (32KB) L1i (32KB) Core P#11 PU P#8 PU P#28 L2 (256KB) L1d (32KB) L1i (32KB) Core P#12 PU P#9 PU P#29 PCI 10de:15f9 card1 renderD128 PCI 10de:15f9 card2 renderD129 PCI 10de:15f9 card3 renderD130 PCI 10de:15f9 card4 renderD131 PCI 8086:8d62 sda PCI 1a03:2000 card0 controlD64 PCI 8086:8d02 NUMANode P#1 (128GB) Package P#1 L3 (25MB) L2 (256KB) L1d (32KB) L1i (32KB) Core P#0 PU P#10 PU P#30 L2 (256KB) L1d (32KB) L1i (32KB) Core P#1 PU P#11 PU P#31 L2 (256KB) L1d (32KB) L1i (32KB) Core P#2 PU P#12 PU P#32 L2 (256KB) L1d (32KB) L1i (32KB) Core P#3 PU P#13 PU P#33 L2 (256KB) L1d (32KB) L1i (32KB) Core P#4 PU P#14 PU P#34 L2 (256KB) L1d (32KB) L1i (32KB) Core P#8 PU P#15 PU P#35 L2 (256KB) L1d (32KB) L1i (32KB) Core P#9 PU P#16 PU P#36 L2 (256KB) L1d (32KB) L1i (32KB) Core P#10 PU P#17 PU P#37 L2 (256KB) L1d (32KB) L1i (32KB) Core P#11 PU P#18 PU P#38 L2 (256KB) L1d (32KB) L1i (32KB) Core P#12 PU P#19 PU P#39 PCI 8086:1528 enp129s0f0 PCI 8086:1528 enp129s0f1 PCI 10de:15f9 card5 renderD132 PCI 10de:15f9 card6 renderD133 PCI 10de:15f9 card7 renderD134 PCI 10de:15f9 card8 renderD135 PCI 15b3:1013 ib0 mlx5_0 Indexes: physical Date: Tue May 30 11:32:43 2017 MEM CPU Cores GPUs Infiniband HBA SSD
7.
現状のAIクラウドの利⽤法(≒ スパコンの利⽤法) • ジョブスケジューラの存在 –
スクリプトファイルの作成 – ジョブの投⼊ • ユーザ権限でのプログラム実⾏ – システムに予めインストールされた ソフトウェアの利⽤ • GPUランタイム・ライブラリCUDA, CuDNN, NCCL • 並列分散処理ソフトウェア(MPI) • 共有ストレージの利⽤ – 複数ユーザで共有された並列ファイルシステム 7 /home (GPFS) Job Job Job Job NQS Submit Scheduling script file $ qsub <option> script_filename inter-connect SSH ( )
8.
AIアプリケーションの事例 • lang2program – https://github.com/kelvinguu/ lang2program –
ACL 2017 paper内で⽤いられた実装 – Dockerfileの提供 • Tensorflow, PostgresQL, Python pip Packages, etc. • 依存関係のあるソフトウェアの インストールが⼤量に発⽣ 8 HPC環境(スパコン)で動くか? • Dockerの⾮サポート (セキュリティ上ホストのrootを与えることができない) • マニュアルにインストールすれば可能だが煩雑
9.
HPCコンテナのいろいろ (SCやISCなどHPCコンテナのBoFが年々増えている) 9 • 今⽇のテーマ なので後述 • NERSCで開発(Cori) •
CSCSで拡張(Piz Diant) • Singulairtyと同様の技術 • ImageGatewayの存在 • Crayのサポート • Slurm連携 • LANLで開発 • Singularityと同様の 技術? • SC17 Paper • ソースコードが少ない
10.
Singularity (ソフトウェアの名称です) • Singularity – ⽶国LBNLで開発中のHPC向けLinuxコンテナ •
http://singularity.lbl.gov/ • https://github.com/singularityware/singularity • 修正BSDライセンス – ユーザ権限でプログラムを実⾏、ストレージへアクセス • rootで動作するデーモンが不要 => 資源管理をスケジューラに委ねる • setuidでroot権限を与えたコマンドを実⾏ (マウント、名前空間の作成、コンテナ内へのホストのPathのʼ作成など) – Dockerイメージが利⽤可能 • DockerHubと連携 – HPC系のソフトウェアスタックが利⽤可能 • CUDA, MPI, Infiniband, etc. 10
11.
Singularityの利⽤イメージ sudo singularity build
–sandbox tmpdir/ Singularity sudo singularity build –writable container.img Singularity sudo singularity build container.img Singularity sudo singularity build container.img docker://ubuntu sudo singularity build container.img shub://ubuntu Sandboxディレクトリの⽣成 コンテナイメージファイルの⽣成 sudo singularity shell –writable container.img パッケージソフトウェアを インストール(yum, apt等) Recipeファイルの利⽤ DockerHubの利⽤ (Dockerコンテナイメージ) SingularityHubの利⽤(Singularityコンテナイメージ) container.img コンテナイメージ ファイルを転送 インタラクティブにコンテナイメージを作成 既存のコンテナイメージを利⽤して作成 予め定めた⼿順によりコンテナイメージを作成 singularity run container.img singularity exec container.img … singularity shell container.img シェルを実⾏(shell) コマンドを与えて実⾏ (exec) 予め定義された動作を 実⾏(run) ユーザ環境 共有計算機環境 11
12.
Singularityのインストール • $ ./configure
–-prefix=/path/to/install • $ make • # make install 共⽤計算機環境的にはインストールが容易でリーズナブル → ただし,root権限でのインストールが必要 12
13.
Singularityでできること • GPU, Infiniband,
XXXが利⽤できるか? – ホスト側のデバイス関連ドライバ・ライブラリをコンテナ側 へみせる(nvidia-docker⽅式?) • MPIが利⽤できるか? – ホストのMPIをコンテナ側へみせる(コンテナなメリットが薄い) – コンテナ内にMPIをインストールし、コンテナの外からキックする (ホスト側と同じMPIを使⽤し, Buildも同じにする必要) • mpirun –np N singularity exec container.img mpi_program • mpi4pyが利⽤できるか? – コンテナ内にMPIをインストール – コンテナ内のMPIに対してmpi4pyをインストール – コンテナ外からキック 13
14.
分散深層学習フレームワーク向けコンテナイメージの構築 • ホスト側 – GPUやIninibandを活⽤するために デバイス関連ドライバ・ライブラリを コンテナ側へマウント •
GPUやIninibandの利⽤ • nvidia-docker⽅式 • コンテナ側 – ユーザランドライブラリの インストール • CUDA, CuDNN, NCCL2, ibverbs, MPI – 分散深層学習フレームワークの インストール • 最適化されたビルド 14 Base Drivers, Libraries on Host CUDA Drivers Infiniband Drivers Filesystem Libraries (GPFS, Lustre) Userland Libraries on Container CUDA CuDNN NCCL2 MPI (mpi4py) Mount ibverbs Distributed Deep Learning Frameworks Caffe2 ChainerMNDistributed TensorflowMXNet
15.
Singularityの利⽤イメージ (最も簡単バージョン) • 事前にDockerHubにアップロードされたDockerイメージ を利⽤ •
$ singularity build container.img ¥ docker://nvidia/cuda:8.0-cudnn6-devel • $ singulairty exec --nv container.img nvidia-smi 15 GPUを有効にするには--nvををつける!
16.
--nvオプションで起きること(v2.4) • libexec/cli/action_argparser.shを参照 – NVIDIAのホストのライブラリのリストを取得 (SINGULAIRTY_NVLIBLIST) –
SINGULARITY_CONTAINLIBSに上記リストを追加 – コンテナ起動時 • SINGULARITY_CONTAINLIBSに記述されたリストが /.singularity/libs以下にマウントされる • LD_LIBRARY_PATHに/.singularity/libsが追加される 16 • 原理的には同様のことをすればInfinibandでもOPAでもできる • SingularityのGPU利⽤⽅法はOn Goingで進⾏中
17.
/etc/singularity/init • Singularityの起動時に呼ばれる(スクリプト) – exec,
shell, run • 起動時に実⾏したいコマンドを記載 – SINGULARITY_CONTAINLIBSに必要なライブラリの リストを代⼊ – export SINGULARITY_CONTAINLIBS 17
18.
Singularityの利⽤イメージ (MPI) • $
mpirun –np N singularity exec container.img ¥ mpi_program • ただし、 – コンテナ内: container.imgのイメージ作成時に MPIをインストールする必要がある – コンテナ外: コンテナ内のMPIとバージョンやconfigureを ⼀致させる必要(な場合がある) • ABIの互換性のサポートがすすめば緩和されるはず • OpenMPI v3.0では--singularityオプションあり, MVAPICHでもサポートの意向 18
19.
例: http://singularity.lbl.gov/docs-hpc (から転載) 19
20.
あとは適当に分散深層学習のイメージをつくればよい • 例えば、ChainerMNだと – $
pip install mpi4py – $ pip install --no-cache-dir cython matplotlib Pillow – $ pip install --no-cache-dir chainer chainermn • ノウハウ的にはDockerfileで作成しておいたほうが汎⽤? – Singularityが安定していないことがある – GPUのサポート 20
21.
Singularityを⽤いた分散深層学習フレームワークの実⾏ • 実験環境 – AAIC
8 nodes (64 GPUs) – フレームワーク: CHainerMN v1.0.0 • Chainer 2.1.0, Cupy 1.0.3, mpi4py 2.0.0, Python 3.6.1 – コンテナ • Singularity v2.3.1 • Ubuntu 16.04, gcc-5.4.0, glibc-2.23 – ベアメタル • CentOS 7.3, gcc-4.8.5, glibc-2.17, • 実験設定 – データセット: Imagenet-1K – モデル: ResNet-50 – 訓練: • バッチサイズ: GPU毎に32, 32 x 64 • 学習率: 30 epoch毎に0.1倍 • 最適化: Momentum SGD (momentum=0.9) • Weight Decay: 0.0001 • 訓練エポック数: 100 21 ベアメタル実⾏とほぼ遜⾊のない性能を確認 Better
22.
演算性能(GEMM) CPU GPU 22 Better
23.
メモリバンド幅性能(STREAM) 23 Triad Better
24.
通信性能(OSU Micro Benchmarks
v5.3.2) AllReduce (Ave. Latency, 2nodes, 8gpus/node) AllReduce(h2h) AllReduce(d2d) 24 Better
25.
ストレージI/O性能(FIO v2.19) スループット READ WRITE 25 Better
26.
ストレージI/O性能(FIO v2.19) IOPS (qdepth=1,
16) READ WRITE 26 Better
27.
議論 • Singularity – ベアメタルと⽐較してほぼ遜⾊のない性能を確認 •
演算性能だけでなく、メモリバンド幅、ストレージI/O, ネットワーク性能(要確認)も • メモリのフットプリントは未確認 – OSの違いを超えられる(CentOS vs. Ubuntu) • 特に、glibcのバージョンの違いも容易に超えられる (glibcが互換性を担保するような実装になっている) – 導⼊しやすさ • configure, make, make installで可能。共有ストレージへも可能。 – あとはエンジニアリングイシュー • ソフトウェアの安定性の向上 • セキュリティイシューを潰す 27
28.
議論 (contʼd) • Singularityの⽋点 –
コンテナ内常駐デーモン不可? – Debug系(gdb)不可? – 資源管理は(cgroupsではなく)スケジューラまかせ → v2.4からinstanceコマンドが導⼊されたので何か変わった かも 28
29.
議論 (contʼd) • ユーザが任意のコンテナを動かして問題が起きるか? –
特に問題がないと判断している(問題を定義したい) – 基本的には実⾏するユーザの責任 (現状でも任意のソフトウェアをユーザが動かしているので ほぼ同じ問題) • 特殊なコンテナが必要?制限はある? – 基本的には不要。ARMでもOPAでも(Linuxであれば)動く。 – ただし、計算環境に最適化するためには再コンパイルなどした⽅が良い。 • ISVアプリのライセンス – コンテナに含めるのは難しい(気がする) – ユーザ権限でホストの環境をコンテナ側にreadマウントすることはできる – ホストにISVアプリをインストール、コンテナ側にマウント? 29
30.
まとめ • lang2program – https://github.com/kelvinguu/ lang2program –
ACL 2017 paper内で⽤いられた実装 – Dockerfileの提供 • Tensorflow, PostgresQL, Python pip Packages, etc. • 依存関係のあるソフトウェアの インストールが⼤量に発⽣ 30 どうやったらSingularityで動かせるでしょうか? → ⾃分で動かせたらだいたいOK
31.
• 所内向けにはSingularityなどの レクチャなどもやってます! – Jupyter
Notebookベース 31
Download