SlideShare a Scribd company logo
More  Modern  GPU
岡野原  ⼤大輔
hillbig@preferred.jp
Preferred  Networks,  Inc.
Preferred  Infrastructure,  Inc.
12/3 2015 PFI/PFN 全体セミナー
GPU/CUDAについて
l  GPU/CUDAは近年年⼤大きな成功を収めている
–  ディープラーニング、機械学習、シミュレーション、グラフィックス
l  GPUとCPUの差は急速に広がっている
–  クロック周波数が頭打ちになり、コアをたくさん並べることで⾼高速化
–  TitanX  6TFlops  (3092  cores),  Xeon  0.8TFlops  (18  cores)
–  CPUは2年年毎にコアが⼆二つずつ増え、4年年毎にSIMDの幅が倍になる
–  GPUは2年年毎にコアが⼆二倍になる
l  GPUはメモリバンド幅が⾮非常に⼤大きい  
–  メモリがGPUに組み込まれており、数百GB/s
l  なぜこのような差が⽣生まれているのか?
2
GPUが⼤大きな性能向上をはたした理理由
l  プログラムにおける明⽰示的な並列列処理理
–  従来のCPUは逐次的な処理理を書く。コア数が増えてもそれを利利⽤用することは困難
–  GPU/CUDAははじめからプログラマに並列列処理理を書かせる。プログラマはすごく⼤大
変だが、GPUのコアが増えると性能がスケールする(フリーランチagain)
l  仮想実⾏行行コード
–  仮想プログラムは実⾏行行時に実⾏行行コードにランタイムの中で変換される。
–  HWは互換性を切切った新しいアーキテクチャを積極的に採⽤用できる。
l  ⼤大量量のスレッドでレイテンシを隠す
–  CPUのようなキャッシュは持たず、分岐予測もしない
–  コア毎のキャッシュコヒーレンシは問題にならない
–  ⼤大量量のスレッドを同時に持てるようにし,データが揃ったスレッドから実⾏行行する
しかし我々はCUDAを書くのか
l  否!
–  素⼈人はCUDAを書いてはならない  [Okuta  2015]
l  cupy  (chainer)
–  殆どのnumpyで書く数値計算はそのままGPU化できる
–  ディープラーニングだけにつかうのは勿体無い
l  modern  gpu/thrust  (今回のメイン)
–  離離散的なアルゴリズムをSTLで書ける
–  CUDAを⼀一切切書かずにかなり汎⽤用的にアルゴリズムをかける
–  コンパイルが遅いのとエラー時に意味不不明
4
cupy  (chainer.cuda.cupy)
l  chainerの開発のために作られたnumpy互換ライブラリ
l  Numpyと同じように書きながら、gpuの性能をフルに活かせる!
l  今までCUDAを書くのがなんだったのかという衝撃の簡単さ
l  中の仕組み
–  実⾏行行時にcudaコードを動的に⽣生成し、コンパイルし、キャッシュ
–  関数ごとの⾮非常に細切切れのcudaライブラリが⼤大量量にできている
u  Chainerの規模だと数万個
–  Nvidiaの⼈人⽈曰く、直接kernelをloadする仕組みを利利⽤用したのを⾒見見たのは⼆二例例⽬目だと
l  きっとChainer  Meetupで詳しい話がされますので今⽇日は省省略略
5
ModernGPUの説明のまえに・・
並列列処理理の考え⽅方
l  並列列処理理の種類
–  MIMD(Multiple  Instruction,  Multiple  Data)
u  複数の命令令で、複数のデータを同時に処理理する
u  例例:PESY-‐‑‒SC(睡蓮)、datacenter  as  a  computer
–  SIMD(Single  Instruction,  Multiple  Data)
u  ⼀一つの命令令で、複数のデータを同時に処理理する
u  例例:SSE
l  GPUはMIMD  +  SIMD(彼らはSIMTと呼んでいる)
–  各ストリームプロセッサ(SM)は独⽴立立に動作し異異なるデータを扱う  MIMD
–  各SMはwarp単位(今は16〜~32)で同じ命令令でデータをまとめて処理理をするSIMD
u  全てのデータアクセスはgather/scatter
–  各SMは⼗十分な量量のスレッドを持ち、データが揃ったスレッドから
実⾏行行することでレイテンシを隠す 6
並列列処理理の困難さ
l  並列列処理理は逐次処理理とは考え⽅方を変えないといけない
–  ⼀一番遅い⼈人が⾜足を引っ張り、全体の性能を決める
–  すべてのリソースを使い切切るように⼼心がける
(例例、問題を100にしか分割できない場合,3000コア中2900コアは使われない)
–  問題は⼤大量量の全く同じ⼤大きさの独⽴立立に解ける問題に分解されるのが理理想
l  逐次処理理とは違うアルゴリズム、データ構造が必要
–  ⼩小⼿手先での並列列化は性能はでず,遅くなることも
7
代表的な並列列処理理  (Prefix-‐‑‒)Scan
l  配列列X[0…n)が与えられた時,Scanは次を求める
–  X[i]  :=  X[0]  +  X[1]  +  ...  +  X[i-‐‑‒1]      exclusive  scan
–  X[i]  :=  X[0]  +  X[1]  +  …  +  X[i]            inclusive  scan
l  Scanは次のように並列列に計算できる
–  各X[i]について,X[i]  +=  X[i-‐‑‒1]
–  各X[i]について,    X[i]  +=  X[i-‐‑‒2]
–  各X[i]について,X[i]  +=  X[i-‐‑‒4]
–  ...
l  例例:X[7]の時,
–  X[7]  +=  X[6]
–  X[7]  +=  X[5]  (=X[4]+X[5])  
l  これはO(log  n)時間で実⾏行行できる
8
Modern  GPU
l  GPUが有効なのは計算粒粒度度が同じような数値計算問題のみか?
→  通常の離離散的アルゴリズムでも有効
l  Modern  GPU
–  Nvidiaが2013年年に発表、ライブラリと、ドキュメントから構成される
–  http://nvlabs.github.io/moderngpu/
l  基本的な考え
–  1.  問題を処理理量量が全く同じ⼤大きさの⼩小さな問題に分割する
–  2.  各問題を独⽴立立に普通の逐次的なアルゴリズムで解く
–  3.  (必要に応じて)解をまとめる
l  重要なのは1の全く同じ⼤大きさに分割するところ
9
例例:マージソート  (1/2)
l  ⼆二つのソート済み配列列X,  Yが与えられた時,これらをあわせてソートせよ
l  X  =  {1,  3,  3,  5,  7,  9,  10,  10,  11,  13,  15}
l  Y  =  {0,  2,  3,  3,  7,  8,      8,      9,  10,  11,  14}
l  Z={0,  1,  2,  3,  3,  3,  3,  5,  7,  7  8,  8,  9,  9,  10,  10,  10,  11,  11,  13,  14,  15}
l  それぞれの配列列⻑⾧長をn=|X|,  m=|Y|とした時,計算量量はO(n+m)
10
例例:マージソート  (2/2)
逐次的なマージソート
X,  Y,  Z  
ix  =  0,  iy  =  0,  iz  =  0
while  (iz  <  n+m)  {
      if  (comp(X[ix],  Y[iy])  Z[iz++]  =  X[ix++]
      else                                                    Z[iz++]  =  Y[iy++]
}
//  境界条件はcompがうまいことやってくれてることにします
これをどのように分割するのか?
11
マージソートの解釈
0 1 3 5 6 6 7 9 10
1
2
2
4
7
8
9
9
10
12
行にA、列にBを並べた行列を考える。
マージソートにおけるZ[iz++] = X[ix++]は右に進む、Z[iz++] = Y[iy++]は下に

進むに対応する
このパスをマージパスと呼ぶ	
X[4]=6 < Y[4]=7
マージパスによる問題の分割
l  もし、マージパスが分かっていれば、問題は全く同じ⼤大きさに分割できる
13
0 1 3 5 6 6 7 9 10
1
2
2
4
7
8
9
9
10
Z[0…4)を計算する領域	
 Z[4…8)を計算する領域	
Z[8…12)を計算する領域	
Z[12…16)を計算する領域
マージパスによる問題の分割
l  X  =  0  1  3  5  6  6  7  9  10  
l  Y  =  1  2  2  4  7  8  9  9  10
l  それぞれの問題は、⻑⾧長さ4の結果を出⼒力力するマージソートに分割される
l  0  1  と  1  2  のマージソート
l  3  5  と  2  4  のマージソート
l  6  6  7  と  7  のマージソート
l  9  と  8  9  9  のマージソート
l  10  と  10  のマージソート(最後だけ⻑⾧長さは違う)
マージパスによる問題の分割
l  マージパスを使えば問題を正確に同じ⼤大きさの問題に分けられる
–  マージパスを得るにはマージソートが必要(循環・・)
→マージパスとの交差点は全体を⾒見見なくても求められる
15
0 1 3 5 6 6 7 9 10
1
2
2
4
7
8
9
9
10
この線上で二分探索
X[i] < Y[8 – i]
となる最大のiを求める
マージパスによる並列列マージソートまとめ
l  問題を分割する
–  ⼆二分探索索をブロック数だけやる(並列列)
l  分割された問題をそれぞれ独⽴立立に逐次的に解く
–  答えを書くZの位置も分かっている
–  固定⻑⾧長の問題なので、ループは展開しておける  #pragma  unroll
–  この場合、解はまとめる必要がない
l  ⾮非常に⾼高速
–  TitanXにおいて    288GB/秒(32ビット整数の場合,700億件/秒)
16
次のような問題も同様にして解ける
l  Bulk  Insert,  Bulk  Delete
–  まとめて挿⼊入、まとめて削除
l  Segmented  Vector  Reduction
–  ⻑⾧長さの異異なる配列列の集合に対し,各配列列毎にReductionをする
l  DBにおけるJoin
–  Outer,  Inner,  Left-‐‑‒,  Right-‐‑‒  Join
–  やっていることはマージソートとほぼ同じ
l  特に興味深いのがMapReduceができる点
l  これらは,Modern  GPU,Thrust,  Cubなどのライブラリで提供されている
17
GPUでMapReduce
l  Map+Shuffle(Sort)+ReduceはGPUで効率率率的に実現可能
l  MapReduceは最近、分散並列列処理理では⾮非効率率率的と廃れてきたが、扱える計算
クラスは⾮非常に広い
–  分散クラスタでは毎回ディスクに書き込む部分とShuffleがボトルネック
–  GPUの場合、⾼高帯域GPUメモリを介して処理理できる
l  Map:要素Dから可変⻑⾧長のキーKと値Vのタプルの集合を⽣生成する  D-‐‑‒>  [K,  V]
l  Shuffle:同じキーの要素をまとめる  [K,  V]  -‐‑‒>  [K,  [V]]
l  Reduce:値の集合を値に潰す  [V]  -‐‑‒>  Z
l  全体としては  [D]  -‐‑‒>  [K,  Z]
18
GPUで転置ファイルを作ってみよう
l  転置ファイル
–  各単語毎にその出現位置を記録
1.  ⽂文字列列中の単語数を数える
1.  単語境界の数を数える(!isAlpha(right)  &&  isAlpha(left))  
2.  各単語の出現位置と、そのハッシュ値を計算する
1.  これはSegmented  Reductionで解ける
2.  (ハッシュ値、位置、⻑⾧長さ)をReduceする
3.  KR法でハッシュ値を計算するのでReduceの順によらない
3.  ハッシュ値で単語をソートし集める
4.  ハッシュ値でSegmented  Reduction
1.  各単語毎の出現位置をまとめる
19
ソースコード例例
l  https://github.com/hillbig/gpuexperiments
20
実験
l  英⽂文700MB
l  マシン:Titan  X
l  総単語数  106,888,008
l  異異なり単語数  1,252,268
l  GPU実⾏行行時間:1.67秒
–  そのうち、CPU-‐‑‒>GPU  コピー時間:0.2秒
–  但し、キーの0.1%未満は衝突している
l  ⽐比較:CPU実⾏行行時間  14.80秒
l  約10倍弱は速くなった
21
22
input=300000000 wordCount=45788064
distinctWord=1129243 words=45788064
0 2528465 the
1 1564080 of
2 1219248 and
3 986168 in
4 862412 a
5 862356 to
6 507386 is
7 484451 The
8 445334 was
9 336005 for
10 334510 s
11 316207 as
12 295183 by
13 282728 with
14 281566 on
15 241960 that
16 235218 doc
17 221649 from
18 193797 at
19 189947 his
20 157175 an
コンパイル時間
l  nvcc  +  thrust  の組み合わせはコンパイル時間がやばい
–  全てtemplateでコンパイル時に展開されるだけでなく、nvcc側の最適化も
–  1分ぐらいかかる
l  お勧めは関数毎に別ソースファイルでコンパイル
–  10秒ぐらいなので,許容範囲・・
23
まとめ
l  GPUによる並列列処理理を紹介した
–  離離散的で⾮非均質な問題も効率率率的に解けるアルゴリズムが登場してきた
–  cupy,  thrust,  cub(未紹介)などを使えばCUDAを書かなくても並列列処理理できる
l  今後は⾮非同期,並列列処理理が重要になる
–  中央集権型,逐次型は性能⾯面,電⼒力力消費⾯面で競争⼒力力が落落ちていく
–  Goのchannel,  go  routineのような⾔言語によるネイティブサポートが必要
–  データの依存関係を⾃自然に表した,データフローモデル
l  昔のデータセンターが今は1チップで実現
–  Datacenter  as  a  computerの著者が予⾔言していたデータセンターが1チップに収
まる時代が到来しつつある  (数⼗十TFlops  in  1  chip)
–  通信はレイテンシ,スループット,電⼒力力量量が問題.狭い場所で処理理すれば全部解決
24
Copyright  ©  2015-‐‑‒
Preferred  Networks  All  Right  Reserved.

More Related Content

PDF
Recent Advances on Transfer Learning and Related Topics Ver.2
PDF
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
PDF
最適輸送の解き方
PDF
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
PDF
Optimizer入門&最新動向
PDF
Visualizing Data Using t-SNE
PPTX
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
PDF
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Recent Advances on Transfer Learning and Related Topics Ver.2
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
最適輸送の解き方
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Optimizer入門&最新動向
Visualizing Data Using t-SNE
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...

What's hot (20)

PDF
ベイズ最適化
PPTX
[DL輪読会]相互情報量最大化による表現学習
PDF
最適化計算の概要まとめ
PDF
PCAの最終形態GPLVMの解説
PDF
機械学習で泣かないためのコード設計
PDF
大規模な組合せ最適化問題に対する発見的解法
PPTX
3次元計測とフィルタリング
PDF
ICML 2021 Workshop 深層学習の不確実性について
PDF
【DL輪読会】Implicit Behavioral Cloning
PDF
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
PDF
数理モデリングからはじめるPython数理最適化 PyData.Tokyo 2017/6/28 Retty Inc. Iwanaga Jiro
PDF
エンジニアも知っておきたいAI倫理のはなし
PPTX
Graph Neural Networks
PDF
[DL輪読会]Temporal Abstraction in NeurIPS2019
PDF
関数データ解析の概要とその方法
PDF
最適化超入門
PPTX
【DL輪読会】Scaling Laws for Neural Language Models
PPTX
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
PDF
勉強か?趣味か?人生か?―プログラミングコンテストとは
PPTX
Anaconda navigatorのアップデートが終わらないときの対処方法メモ
ベイズ最適化
[DL輪読会]相互情報量最大化による表現学習
最適化計算の概要まとめ
PCAの最終形態GPLVMの解説
機械学習で泣かないためのコード設計
大規模な組合せ最適化問題に対する発見的解法
3次元計測とフィルタリング
ICML 2021 Workshop 深層学習の不確実性について
【DL輪読会】Implicit Behavioral Cloning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
数理モデリングからはじめるPython数理最適化 PyData.Tokyo 2017/6/28 Retty Inc. Iwanaga Jiro
エンジニアも知っておきたいAI倫理のはなし
Graph Neural Networks
[DL輪読会]Temporal Abstraction in NeurIPS2019
関数データ解析の概要とその方法
最適化超入門
【DL輪読会】Scaling Laws for Neural Language Models
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
勉強か?趣味か?人生か?―プログラミングコンテストとは
Anaconda navigatorのアップデートが終わらないときの対処方法メモ
Ad

Viewers also liked (12)

PDF
Chainer, Cupy入門
PDF
CuPy解説
PDF
Introduction to Chainer
PDF
Chainer v2 and future dev plan
PDF
GPU上でのNLP向け深層学習の実装について
PPTX
Chainer v3
PPTX
Jupyter NotebookとChainerで楽々Deep Learning
PDF
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
PDF
20171024 DLLab#04_PFN_Hiroshi Maruyama
PDF
Chainer入門と最近の機能
PDF
Chainer meetup lt
PPTX
Deep parking
Chainer, Cupy入門
CuPy解説
Introduction to Chainer
Chainer v2 and future dev plan
GPU上でのNLP向け深層学習の実装について
Chainer v3
Jupyter NotebookとChainerで楽々Deep Learning
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
20171024 DLLab#04_PFN_Hiroshi Maruyama
Chainer入門と最近の機能
Chainer meetup lt
Deep parking
Ad

Similar to More modern gpu (20)

PDF
Deep learning実装の基礎と実践
PDF
機械学習とこれを支える並列計算: ディープラーニング・スーパーコンピューターの応用について
PDF
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
PDF
Robust Large-Scale Machine Learning in the Cloud
PDF
Tsukuba.R #7 5/9
PDF
【関東GPGPU勉強会#4】GTX 1080でComputer Vision アルゴリズムを色々動かしてみる
PDF
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
PDF
2012-03-08 MSS研究会
PDF
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境
PDF
CMSI計算科学技術特論A(14) 量子化学計算の大規模化1
PPTX
充足可能性問題のいろいろ
PDF
MemoryPlus Workshop
PDF
【A-1】AIを支えるGPUコンピューティングの今
PDF
第11回 配信講義 計算科学技術特論B(2022)
PDF
LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)
PDF
並列対決 Elixir × Go × C# x Scala , Node.js
PDF
文献紹介:Learnable Gated Temporal Shift Module for Free-form Video Inpainting
PPT
20030203 doctor thesis_presentation_makotoshuto
PDF
El text.tokuron a(2019).ishimura190725
PDF
文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
Deep learning実装の基礎と実践
機械学習とこれを支える並列計算: ディープラーニング・スーパーコンピューターの応用について
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
Robust Large-Scale Machine Learning in the Cloud
Tsukuba.R #7 5/9
【関東GPGPU勉強会#4】GTX 1080でComputer Vision アルゴリズムを色々動かしてみる
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
2012-03-08 MSS研究会
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境
CMSI計算科学技術特論A(14) 量子化学計算の大規模化1
充足可能性問題のいろいろ
MemoryPlus Workshop
【A-1】AIを支えるGPUコンピューティングの今
第11回 配信講義 計算科学技術特論B(2022)
LLVMで遊ぶ(整数圧縮とか、x86向けの自動ベクトル化とか)
並列対決 Elixir × Go × C# x Scala , Node.js
文献紹介:Learnable Gated Temporal Shift Module for Free-form Video Inpainting
20030203 doctor thesis_presentation_makotoshuto
El text.tokuron a(2019).ishimura190725
文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

More from Preferred Networks (20)

PDF
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PDF
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
PDF
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
PDF
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
PDF
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
PDF
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
PDF
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
PDF
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
PPTX
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
PPTX
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PDF
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
PDF
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
PDF
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
PDF
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PDF
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
PDF
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
PDF
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
PDF
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
PDF
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
PDF
Topology Managerについて / Kubernetes Meetup Tokyo 50
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
Topology Managerについて / Kubernetes Meetup Tokyo 50

More modern gpu