SlideShare a Scribd company logo
あなたのお家に届くまで 
CPUキャッシュアーキテクチャ入門(その1) 
! 
Dora. Panda October 18th, 2014
今日のお題 
CPUがデータを読み込むまで 
の長い長いお話です。 
ソフトウェアからは見ること 
のできないCPU内部動作につ 
いて説明します。
ハードウェア構成 
左図の構成で説明を進めます 
CPUによって実装が異なるので、機種 
固有の説明は省きます。 
私なりに考えた「キャッシュの基礎を 
理解する」ための仮想CPUです。 
「そこそこ」ワーストケースで考えます。 
TLBヒット、L1、L2キャッシュはミス 
ヒット。 
細かい用語は後ほど。 
Processor Chip 
CPU Core 
L2 Cache 
Mem Ctrl 
DRAM 
HW… 
PCIe 
MMU 
L1 Cache
メモリからロードしてみよう 
例えば、以下のC言語プログラ 
ム上は左の赤枠のような命令 
に置き換えられます。 
int hoge = *__bss_start__; 
! 
※ARM命令の場合
“Le plus important est invisible” 
“大切な物は目に見えないんだよ” 
–The Little Prince 
メモリからデータを読み出し、CPUレジスタにロードされるまで 
長い旅路の物語
と、その前に…レジスタって? 
パソコン初心者向け説明 
CPUはメモリに情報を置く 
メモリに入りきらないとき 
はHDDに退避 
CPU 
DRAM HDD
レジスタ=CPU内部のメモリ領域 
CPUはレジスタのデータに対して 
のみ演算可能。 
メモリの値を直接制御できない。 
データ読み出しはメモリからレ 
ジスタに転送し、レジスタを読 
む。 
データ書き込みはレジスタに書 
き、レジスタの内容をメモリに 
転送する。 
CPU 
演算回路 
レレジジススタタ 
キャッシュ 
DRAM HDD
About MMU Processor Chip 
MEMORY 
MANAGEMENT 
UNIT 
CPU Core 
L2 Cache 
Mem Ctrl 
DRAM 
HW… 
PCIe 
MMU 
L1 Cache
MMU 
CPUがデータをロードすると 
き、MMUに対してアドレスを 
出力します。 
MMUでは仮想メモリと物理メ 
モリ変換を行います。 
TLBというアドレス変換情報 
キャッシュがあります。 
CPU Core 
仮想アドレス 
MMU 
仮想アドレス物理アドレス 
仮想アドレス物理アドレス 
仮想アドレス物理アドレス 
仮想アドレス物理アドレス 
物理アドレス
物理アドレスと仮想アドレス 
物理アドレス 
連続的な実際のアドレス。 
仮想アドレス 
OSが実行時に動的に割り当てるアドレス 
ページ単位の割り当て 
4kB、16kB、64kBなど。 
不連続なページを連続的に見せる。 
プロセス毎に独立したアドレス 
あるプロセスからほかのプロセスのアドレ 
スにはアクセス不可。(メモリ保護) 
物理アドレス仮想アドレス
仮想~物理アドレス変換 
MMU 
仮想アドレス(32bit) 
00000000000 00000000000 000000000000 
Page Table 
物理アドレス 
物理アドレス(32bit) 
00000000000000000000 000000000000 
Page Table 
Page Table 
Page Table 
Page Table 
物理アドレス 
物理アドレス 
物理アドレス 
Page Table Entry(PTE)を使ってアドレ 
ス変換 
TLBはPTEのキャッシュ 
TLBミスヒット時はPTEを検索 
エントリ数は32~128個程度 
PTEミスヒット時はページイン(Disk 
-> RAM)
About Level 1 Cache Processor 
LEVEL 1 CACHE 
CPU Core 
L2 Cache 
Mem Ctrl 
DRAM 
HW… 
PCIe 
MMU 
L1 Cache
LEVEL 1 CACHE 
CPUが最初にアクセスするメ 
モリ領域 
一番高速&一番サイズが小さ 
いメモリ 
CPUクロックと同一クロッ 
クで読み書き可能 
数k~数100kBytes程度 
MMU 
物理アドレス 
Level 1 Cache 
物理アドレスデータ 
物理アドレスデータ 
物理アドレスデータ 
物理アドレスデータ 
Miss Hit Hit
DETAILS OF CACHE 
アドレス 
00000000000000000 000000000 000000 
Level 1 Cache 
1 word (4bytes) 
データ(1 word) 
Cache Entry Table 
タグ(上位アドレス) データ 
タグ(上位アドレス) データ 
タグ(上位アドレス) データ 
タグ(上位アドレス) データ 
00000000 00000000 00000000 00000000 
=? 
データ1 
データ2 
データ3 
データn ① 
② 
③ 
01 
511
CACHE ALGORITHM 
~キャッシュの動作をC/C++で表現してみました~ 
typedef struct { 
unsigned long tag; 
int data[8]; 
} CLine; 
! 
typedef struct { 
CLine entry[512 / (8 * sizeof(int)]; // 16 line 
} ETable; 
ETable cache; 
! 
bool GetData(int* adrs, int *data) { 
unsigned long i = (adrs & 0x000001E0) >> 5; 
! 
if (cache.entry[i].tag == adrs & 0xFFFFFE00) { 
*data = cache.entry[i].data[adrs & 0x0000001F]; 
} 
キャッシュ 
:512バイト 
ラインあたりのワード数 
:8ワード 
ライン数 
:16ライン
CACHE ALGORITHM 
typedef struct { 
unsigned long tag; 
int data[8]; 
} CLine; 
! 
typedef struct { 
CLine entry[512 / (8 * sizeof(int)]; 
} ETable; 
ETable cache; 
! 
bool GetData(int* adrs, int *data) { 
unsigned long i = (adrs & 0x000001E0) >> 5; 
! 
if (cache.entry[i].tag == adrs & 0xFFFFFE00) { 
*data = cache.entry[i].data[adrs & 0x0000001F]; 
} 
・タグ 
:0xFFFFFE00 
・インデックス 
:0x000001E0 
・ライン内オフセット 
:0x0000001F 
アドレスからインデックスを抽出
CACHE ALGORITHM 
typedef struct { 
unsigned long tag; 
int data[8]; 
} CLine; 
! 
typedef struct { 
CLine entry[512 / (8 * sizeof(int)]; 
} ETable; 
ETable cache; 
! 
bool GetData(int* adrs, int *data) { 
unsigned long i = (adrs & 0x000001E0) >> 5; 
! 
if (cache.entry[i].tag == adrs & 0xFFFFFE00) { 
*data = cache.entry[i].data[adrs & 0x0000001F]; 
} 
・タグ 
:0xFFFFFE00 
・インデックス 
:0x000001E0 
・ライン内オフセット 
:0x0000001F 
アドレスからタグを抽出して比較
CACHE ALGORITHM 
typedef struct { 
unsigned long tag; 
int data[8]; 
} CLine; 
! 
typedef struct { 
CLine entry[512 / (8 * sizeof(int)]; 
} ETable; 
ETable cache; 
! 
bool GetData(int* adrs, int *data) { 
unsigned long i = (adrs & 0x000001E0) >> 5; 
! 
if (cache.entry[i].tag == adrs & 0xFFFFFE00) { 
*data = cache.entry[i].data[adrs & 0x0000001F]; 
} 
・タグ 
:0xFFFFFE00 
・インデックス 
:0x000001E0 
・ライン内オフセット 
:0x0000001F 
アドレスからライン内オフセットを抽出 
↑ここはちょっと変だけど許してね
N-WAY ASSOCIATEVE CACHE 
Cache Entry Table 
Cache Entry Table 
Cache Entry Table 
Cache Entry Table 
タグ(上位アドレス) データ 
タグ(上位アドレス) データ 
タグ(上位アドレス) データ 
タグ(上位アドレス) データ 
nウェイアソシアティブ 
キャッシュを複数(n)毎持つ 
ダイレクトマップの欠点を解決 
同一インデックスに対して 
複数エントリを持つことで 
ヒット率向上。 
アドレス 
000000000000000000 000000000 00000 
=? 
Hit or Miss ?
MISS HIT! 
キャッシュ内のデータをライトバック 
データを読み込むためのキャッシュ 
エントリを確保するため。 
LRU/ランダム/ラウンドロビン 
L2キャッシュから読み出し 
読み出し終わるまでCPUはストール 
(パイプライン完全停止) 
Level 1 Cache 
物理アドレスデータ 
物理アドレスデータ 
物理アドレスデータ 
物理アドレスデータ 
L2 Cache
About Level 2 Cache Processor 
LEVEL 2 CACHE 
CPU Core 
L2 Cache 
Mem Ctrl 
DRAM 
HW… 
PCIe 
MMU 
L1 Cache
LEVEL2 CACHE SEQUENCE 
Address 
確定 
Tag 
出力 
比較 
Data 
出力 
確定 
Bus Clock 
L1 Cacheがアドレスを出力 
L2 cacheがアドレスを確定 
Tag読み出し制御 
Tagが出力される 
Tag比較 -> Hit ! 
Data読み出し制御 
Dataが出力される 
L1 Cacheへデータを返す 
読み出しに8 Clock必要
About DRAM Processor 
DYNAMIC 
RANDOM 
ACCESS 
MEMORY 
CPU Core 
L2 Cache 
Mem Ctrl 
DRAM 
HW… 
PCIe 
MMU 
L1 Cache
外部デバイスアクセス 
DRAMは外部デバイス 
制御用のHWが必要 
非常に低速 
CPUクロックの5~10分の1
10 Clock@8wordバーストリード(キャッシュ1ラインフィルに相当) 
DDR3-SDRAM READ TIMING 
参考資料: 
http://www.samsung.com/global/business/semiconductor/file/product/ddr3_device_operation_timing_diagram_rev121.pdf
DDR3-SDRAM STATE CHART 
DDR3-SDRAMの内部状態遷移図 
HW IPとして提供されることが多 
いのでこれを理解している人は少 
ないと思います。 
重要キーワード 
ModeRegister 
プリチャージ 
リフレッシュ
DRAMとキャッシュ 
DRAMはキャッシュに接続され 
る前提で機能実装 
ラインフィルに必要なバース 
トモード 
全てシングルアクセスする 
と致命的に遅い 
要求されたデータから順にリー 
ド可能 
Single Word Read = 7 Clock/Word 
8 Words Burst Read = 1.25 Clock/Word 
(10 Clock / 8 Words) 
DRAMとキャッシュは密接な関係にあります
Consideration Processor 
ヒット率と 
アクセス時間に 
関する考察 
CPU Core 
L2 Cache 
Mem Ctrl 
DRAM 
HW… 
PCIe 
MMU 
L1 Cache 
?
CPUの待ち時間 
今までのワーストケースで1wordを読み出す時間を計算 
tL1 = 1 Clock 
tL2 = 16 Clock (8 × 2CPUの半分のクロックで動作と過程) 
tDDR3 = 28 Clock (7 × 4 CPUバスの半分のクロックで動作と過程) 
tAllMiss = tL1 + tL2 + tDDR3 = 45 [Clock] 
CPUやシステムによって上記の値は全然違います。 
実際の値を適用すると、もっとすごいことになります。 
http://www.7-cpu.com/cpu/Cortex-A9.html
キャッシュヒット率を考慮 
キャッシュヒット率(仮定) 
L1、L2ともにhit率 = 90.0%と仮定。 
Avarage Access Time = tL1×0.9 + tL2 × (1 - 0.9) + tDDR3 × (1 - 
0.9) × 0.9 = 4.22[clock] 
バスクロックが遅いと? 
同一クロックであっても外部バス速度が遅いCPUがあります。 
例:Core2Duo 667MHz、Celeron 533MHz 
Avarage Access Time = tL1×0.9 + (tL2 × (1 - 0.9) + tDDR3 × (1 - 
0.9) × 0.9) × 667/533 = 5.05[clock] 
ざっくり計算です。
キャッシュやメモリ制御回路が 
大部分を占めます。
Study Processor 
実験してみよう 
CPU Core 
L2 Cache 
Mem Ctrl 
DRAM 
HW… 
PCIe 
MMU 
L1 Cache 
?
Intel Performance Counter Monitorで実験してみましょう。 
通常のループ 
残念なループ 
ブロッキング 
アンローリング 
行列計算 
フォールスシェアリング
通常のループ 
src[row] += dst[row][col] 
dstのサイズ>>キャッシュ 
キャッシュ1ラインのワード数 
ごとにキャッシュミスヒット。 
row 
0 
1 
src 
9 
row col 
0 0 
1 
dst 
65535 
1 0 
9 65534 
9 65535 
キャッシュ 
サイズ 
for (unsigned long row = 0; row < ROW_SIZE; row++) { 
for (unsigned long col = 0; col < COL_SIZE; col++) { 
*(dst + row) += *(src + row * COL_SIZE + col); 
} 
}
残念なループ 
rowのインクリメントを先にする。 
インクリメント>>キャッシュ 
毎回ミスヒットする。 
row 
0 
1 
src 
9 
row col 
0 0 
1 
dst 
65535 
1 0 
9 65534 
9 65535 
キャッシュ 
サイズ 
for (int col = 0; col < COL_SIZE; col++) { 
for (int row = 0; row < ROW_SIZE; row++) { 
*(dst + row) += *(src + row * COL_SIZE + col); 
} 
}
ブロッキング 
キャッシュサイズの範囲内で 
一通り処理する。 
終わったら次の領域に移る。 
ミスヒットが格段に減る。 
row 
0 
1 
src 
9 
row col 
0 0 
1 
dst 
65535 
1 0 
9 65534 
9 65535 
キャッシュ 
サイズ 
for (int Blk = 0; Blk < COL_SIZE; Blk += BLKSIZE) { 
for (int row = 0; row < ROW_SIZE; row++) { 
for (int col = Blk; col < Blk + BLKSIZE; col++) { 
*(dst + row) += *(src + Blk * BLKSIZE + col); 
} 
} 
} 
ブロック 
サイズ
ループアンローリング 
ループ処理を展開して分岐命 
令を削減 
展開しすぎるとプログラム 
が大きくなり、命令キャッ 
シュミスが増える 
for (unsigned long row = 0; row < ROW_SIZE; row++) { 
for (unsigned long col = 0; col < COL_SIZE;) { 
*(data_dst + row) += *(data_src + row * COL_SIZE + col++); 
*(data_dst + row) += *(data_src + row * COL_SIZE + col++); 
*(data_dst + row) += *(data_src + row * COL_SIZE + col++); 
…略… 
*(data_dst + row) += *(data_src + row * COL_SIZE + col++); 
} 
} 
処理 
インクリメント 
分岐判定 
処理 
インクリメント 
分岐判定 
処理 
インクリメント 
分岐判定 
処理 
インクリメント 
処理 
インクリメント 
処理 
インクリメント 
… 
… 
実行命令数が減る 
=処理時間も減る 
プログラムサイズは 
増える
行列計算 
普通にアルゴリズムを書くと、先ほどの「普通のループ」 
と「残念なループ」の組み合わせになる。 
片方をわざと行列を入れ替えて定義する 
int A[row][col]; 
int B[col]row]; 
int A[row][col]; 
int B[row][col];
フォールスシェアリング 
複数のスレッドが同一キャッシュラインのデータにライト 
アクセスするときに発生し得る問題。 
Core1 Core2 
Cache Line Cache Line 
DRAM 
Core 1とCore2は異なるアドレスにライトする。 
アドレスは異なるが、キャッシュラインは同一。 
Core1がデータを書き換える。 
他コアもキャッシュしているため、DRAMにライトバック。 
Core2はDRAMとキャッシュが不一致のため、キャッシュさ 
れていたデータは「無効(データ無し)」とする。 
Core2がデータを書き換える。 
ミスヒットが発生し、DRAMからデータを読み出す。
フォールスシェアリング解決策 
複数のスレッドで共有する必要の無いデータはアドレスが 
64バイト以上離れるようにする。 
Core1 Core2 
Cache Line Cache Line 
DRAM 
void worker_thread1(void) { 
for (int i = 0; i < MAX; i++) 
dstArea[0] += srcArea[i]; 
} 
! 
void worker_thread2(void) { 
for (int i = 0; i < MAX; i++) 
dstArea[1] += srcArea[i]; 
} 
! 
void worker_thread3(void) { 
for (int i = 0; i < MAX; i++) 
dstArea[64] += srcArea[i]; 
} 
thread1と2はフォールスシェアリング 
thread1と3は無し
実験結果:ループ 
「残念なループ」はキャッシュヒッ 
ト率が低く、DRAMアクセスが多 
い。 
「ブロッキング」はDRAMアクセ 
スが少ない。 
簡単なプログラムのため差が 
出にくかったかも。 
テストプログラム以外のプロセ 
スのカウント値も含まれてい 
ると思われます。 
時間L1 HIT DRAM 
READ 
普通1.68 99.82 5542MB 
残念14.09 89.54 41100MB 
ブロッキ 
ング1.63 99.95 283MB 
アンロー 
リング1.62 99.91 5460MB
実験結果:行列計算/シェアリング 
行列を入れ替えるとキャッシュ 
ヒット率が向上しDRAMアクセ 
スが減る。 
フォールスシェアリングを回避 
することによりDRAMアクセス 
が半分になっている。 
「ループ」、「行列計算」、 
「シェアリング」はそれぞ 
れ異なるテストプログラムを 
実行しています。 
時間L1 HIT DRAM 
READ 
通常13.33 92.30 49.8GB 
行列 
入れ替え2.06 99.75 10.7GB 
時間L1 HIT DRAM 
READ 
FALSE 
SHARE 10.54 95.42 926MB 
NONE 
SHARED 4.62 98.77 421MB
参考資料 
アーキテクチャ全般 
David A.Patterson/John L.Hennessy; パターソン&ヘネシー コンピュータの構成と設計 第4版, 
日経BP社, 2011年. 
中森 章; マイクロプロセッサ・アーキテクチャ入門, CQ出版, 2004年. 
CPU実例 
ARM 
Cortex-A9 テクニカルリファレンスマニュアル, r2p2 
CoreLink Level 2 Cache Controller L2C-310 Technical Reference Manual, r3p3 
Intel 
Intel® 64 and IA-32 Architectures Software Developer's Manual Volume 3A: System 
Programming Guide, Part 1 
Intel® 64 and IA-32 Architectures Optimization Reference Manual 
Performance Analysis Guide for Intel® Core™ i7 Processor and Intel® Xeon™ 5500 
processors

More Related Content

PDF
Cpu pipeline basics
PDF
CPUの同時実行機能
PDF
実用Brainf*ckプログラミング
PDF
JavaScript難読化読経
PPTX
GPU-FPGA協調プログラミングを実現するコンパイラの開発
PDF
データベースシステム論04 - 関係代数(後半)
PDF
A Trifecta of Real-Time Applications: Apache Kafka, Flink, and Druid
PPTX
Starc verilog hdl2013d
Cpu pipeline basics
CPUの同時実行機能
実用Brainf*ckプログラミング
JavaScript難読化読経
GPU-FPGA協調プログラミングを実現するコンパイラの開発
データベースシステム論04 - 関係代数(後半)
A Trifecta of Real-Time Applications: Apache Kafka, Flink, and Druid
Starc verilog hdl2013d

What's hot (20)

PDF
組み込みでこそC++を使う10の理由
PDF
レプリケーション遅延の監視について(第40回PostgreSQLアンカンファレンス@オンライン 発表資料)
PPTX
最速C# 7.x
PPTX
PySpark を分析用途に使っている話
PPT
DNS移転失敗体験談
PPTX
HUG Nov 2010: HDFS Raid - Facebook
PDF
私とOSSの25年
PPT
B-link-tree
PDF
スペシャリストになるには
PDF
Generating parsers using Ragel and Lemon
PPTX
AWSでGPUも安く大量に使い倒せ
PDF
日曜数学会_ガロア体上の符号とQRコード_Kuma
PDF
NumPyが物足りない人へのCython入門
PDF
20191115-PGconf.Japan
PDF
تخصصات الحاسب الآلي
PDF
CRDT in 15 minutes
PDF
Performance Wins with BPF: Getting Started
PDF
楕円曲線と暗号
PDF
GoogleのSHA-1のはなし
組み込みでこそC++を使う10の理由
レプリケーション遅延の監視について(第40回PostgreSQLアンカンファレンス@オンライン 発表資料)
最速C# 7.x
PySpark を分析用途に使っている話
DNS移転失敗体験談
HUG Nov 2010: HDFS Raid - Facebook
私とOSSの25年
B-link-tree
スペシャリストになるには
Generating parsers using Ragel and Lemon
AWSでGPUも安く大量に使い倒せ
日曜数学会_ガロア体上の符号とQRコード_Kuma
NumPyが物足りない人へのCython入門
20191115-PGconf.Japan
تخصصات الحاسب الآلي
CRDT in 15 minutes
Performance Wins with BPF: Getting Started
楕円曲線と暗号
GoogleのSHA-1のはなし
Ad

Viewers also liked (20)

PDF
2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調
PPTX
便利な数を100億個の乱数から算出
PDF
確率論基礎
PPTX
AtCoder Regular Contest 016 解説
PDF
H231126 統計および確率を利用した予測と判断rev1
PDF
統計勉強会 LT ベイジアンって?
PDF
Life with jupyter
PDF
経験過程
PDF
EthernetやCPUなどの話
PPTX
仕事の流儀 Vol1 基本編_ver1.1_外部公開ver
PPTX
「数学の世界」発表資料
PDF
Windows10の展開手法
PDF
MLaPP 2章 「確率」(前編)
PDF
カップルが一緒にお風呂に入る割合をベイズ推定してみた
PPTX
ベイズ基本0425
PDF
TensorFlowで学ぶDQN
PDF
ベイズ統計入門
PPTX
ゼロから始める自作 CPU 入門
PDF
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
PDF
Code jp2015 cpuの話
2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調
便利な数を100億個の乱数から算出
確率論基礎
AtCoder Regular Contest 016 解説
H231126 統計および確率を利用した予測と判断rev1
統計勉強会 LT ベイジアンって?
Life with jupyter
経験過程
EthernetやCPUなどの話
仕事の流儀 Vol1 基本編_ver1.1_外部公開ver
「数学の世界」発表資料
Windows10の展開手法
MLaPP 2章 「確率」(前編)
カップルが一緒にお風呂に入る割合をベイズ推定してみた
ベイズ基本0425
TensorFlowで学ぶDQN
ベイズ統計入門
ゼロから始める自作 CPU 入門
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
Code jp2015 cpuの話
Ad

Similar to Cpu cache arch (20)

PPTX
Cache obliviousの話
PDF
研究動向から考えるx86/x64最適化手法
PDF
kagamicomput201713
PDF
Zynq mp勉強会資料
PDF
第12回オペレーティングシステム
PDF
仮想記憶の構築法
PDF
Java EE7 䛸㻌JCache 
PDF
20190625 OpenACC 講習会 第2部
PDF
Cpuの速度向上はいかに実現されたのか
PPTX
非同期処理の基礎
PDF
リナックスに置ける様々なリモートエキスプロイト手法 by スクハー・リー
PDF
ACRi HLSチャレンジ 高速化テクニック紹介
PPTX
キャッシュコヒーレントに囚われない並列カウンタ達
PDF
プログラムを高速化する話
PDF
C++ マルチスレッド 入門
PDF
PEZY-SC programming overview
PDF
ハードウェア脳とソフトウェア脳
PDF
ただのリンカを書いた話.pdf
PDF
PWNの超入門 大和セキュリティ神戸 2018-03-25
PPTX
冬のLock free祭り safe
Cache obliviousの話
研究動向から考えるx86/x64最適化手法
kagamicomput201713
Zynq mp勉強会資料
第12回オペレーティングシステム
仮想記憶の構築法
Java EE7 䛸㻌JCache 
20190625 OpenACC 講習会 第2部
Cpuの速度向上はいかに実現されたのか
非同期処理の基礎
リナックスに置ける様々なリモートエキスプロイト手法 by スクハー・リー
ACRi HLSチャレンジ 高速化テクニック紹介
キャッシュコヒーレントに囚われない並列カウンタ達
プログラムを高速化する話
C++ マルチスレッド 入門
PEZY-SC programming overview
ハードウェア脳とソフトウェア脳
ただのリンカを書いた話.pdf
PWNの超入門 大和セキュリティ神戸 2018-03-25
冬のLock free祭り safe

Cpu cache arch

  • 2. 今日のお題 CPUがデータを読み込むまで の長い長いお話です。 ソフトウェアからは見ること のできないCPU内部動作につ いて説明します。
  • 3. ハードウェア構成 左図の構成で説明を進めます CPUによって実装が異なるので、機種 固有の説明は省きます。 私なりに考えた「キャッシュの基礎を 理解する」ための仮想CPUです。 「そこそこ」ワーストケースで考えます。 TLBヒット、L1、L2キャッシュはミス ヒット。 細かい用語は後ほど。 Processor Chip CPU Core L2 Cache Mem Ctrl DRAM HW… PCIe MMU L1 Cache
  • 4. メモリからロードしてみよう 例えば、以下のC言語プログラ ム上は左の赤枠のような命令 に置き換えられます。 int hoge = *__bss_start__; ! ※ARM命令の場合
  • 5. “Le plus important est invisible” “大切な物は目に見えないんだよ” –The Little Prince メモリからデータを読み出し、CPUレジスタにロードされるまで 長い旅路の物語
  • 7. レジスタ=CPU内部のメモリ領域 CPUはレジスタのデータに対して のみ演算可能。 メモリの値を直接制御できない。 データ読み出しはメモリからレ ジスタに転送し、レジスタを読 む。 データ書き込みはレジスタに書 き、レジスタの内容をメモリに 転送する。 CPU 演算回路 レレジジススタタ キャッシュ DRAM HDD
  • 8. About MMU Processor Chip MEMORY MANAGEMENT UNIT CPU Core L2 Cache Mem Ctrl DRAM HW… PCIe MMU L1 Cache
  • 9. MMU CPUがデータをロードすると き、MMUに対してアドレスを 出力します。 MMUでは仮想メモリと物理メ モリ変換を行います。 TLBというアドレス変換情報 キャッシュがあります。 CPU Core 仮想アドレス MMU 仮想アドレス物理アドレス 仮想アドレス物理アドレス 仮想アドレス物理アドレス 仮想アドレス物理アドレス 物理アドレス
  • 10. 物理アドレスと仮想アドレス 物理アドレス 連続的な実際のアドレス。 仮想アドレス OSが実行時に動的に割り当てるアドレス ページ単位の割り当て 4kB、16kB、64kBなど。 不連続なページを連続的に見せる。 プロセス毎に独立したアドレス あるプロセスからほかのプロセスのアドレ スにはアクセス不可。(メモリ保護) 物理アドレス仮想アドレス
  • 11. 仮想~物理アドレス変換 MMU 仮想アドレス(32bit) 00000000000 00000000000 000000000000 Page Table 物理アドレス 物理アドレス(32bit) 00000000000000000000 000000000000 Page Table Page Table Page Table Page Table 物理アドレス 物理アドレス 物理アドレス Page Table Entry(PTE)を使ってアドレ ス変換 TLBはPTEのキャッシュ TLBミスヒット時はPTEを検索 エントリ数は32~128個程度 PTEミスヒット時はページイン(Disk -> RAM)
  • 12. About Level 1 Cache Processor LEVEL 1 CACHE CPU Core L2 Cache Mem Ctrl DRAM HW… PCIe MMU L1 Cache
  • 13. LEVEL 1 CACHE CPUが最初にアクセスするメ モリ領域 一番高速&一番サイズが小さ いメモリ CPUクロックと同一クロッ クで読み書き可能 数k~数100kBytes程度 MMU 物理アドレス Level 1 Cache 物理アドレスデータ 物理アドレスデータ 物理アドレスデータ 物理アドレスデータ Miss Hit Hit
  • 14. DETAILS OF CACHE アドレス 00000000000000000 000000000 000000 Level 1 Cache 1 word (4bytes) データ(1 word) Cache Entry Table タグ(上位アドレス) データ タグ(上位アドレス) データ タグ(上位アドレス) データ タグ(上位アドレス) データ 00000000 00000000 00000000 00000000 =? データ1 データ2 データ3 データn ① ② ③ 01 511
  • 15. CACHE ALGORITHM ~キャッシュの動作をC/C++で表現してみました~ typedef struct { unsigned long tag; int data[8]; } CLine; ! typedef struct { CLine entry[512 / (8 * sizeof(int)]; // 16 line } ETable; ETable cache; ! bool GetData(int* adrs, int *data) { unsigned long i = (adrs & 0x000001E0) >> 5; ! if (cache.entry[i].tag == adrs & 0xFFFFFE00) { *data = cache.entry[i].data[adrs & 0x0000001F]; } キャッシュ :512バイト ラインあたりのワード数 :8ワード ライン数 :16ライン
  • 16. CACHE ALGORITHM typedef struct { unsigned long tag; int data[8]; } CLine; ! typedef struct { CLine entry[512 / (8 * sizeof(int)]; } ETable; ETable cache; ! bool GetData(int* adrs, int *data) { unsigned long i = (adrs & 0x000001E0) >> 5; ! if (cache.entry[i].tag == adrs & 0xFFFFFE00) { *data = cache.entry[i].data[adrs & 0x0000001F]; } ・タグ :0xFFFFFE00 ・インデックス :0x000001E0 ・ライン内オフセット :0x0000001F アドレスからインデックスを抽出
  • 17. CACHE ALGORITHM typedef struct { unsigned long tag; int data[8]; } CLine; ! typedef struct { CLine entry[512 / (8 * sizeof(int)]; } ETable; ETable cache; ! bool GetData(int* adrs, int *data) { unsigned long i = (adrs & 0x000001E0) >> 5; ! if (cache.entry[i].tag == adrs & 0xFFFFFE00) { *data = cache.entry[i].data[adrs & 0x0000001F]; } ・タグ :0xFFFFFE00 ・インデックス :0x000001E0 ・ライン内オフセット :0x0000001F アドレスからタグを抽出して比較
  • 18. CACHE ALGORITHM typedef struct { unsigned long tag; int data[8]; } CLine; ! typedef struct { CLine entry[512 / (8 * sizeof(int)]; } ETable; ETable cache; ! bool GetData(int* adrs, int *data) { unsigned long i = (adrs & 0x000001E0) >> 5; ! if (cache.entry[i].tag == adrs & 0xFFFFFE00) { *data = cache.entry[i].data[adrs & 0x0000001F]; } ・タグ :0xFFFFFE00 ・インデックス :0x000001E0 ・ライン内オフセット :0x0000001F アドレスからライン内オフセットを抽出 ↑ここはちょっと変だけど許してね
  • 19. N-WAY ASSOCIATEVE CACHE Cache Entry Table Cache Entry Table Cache Entry Table Cache Entry Table タグ(上位アドレス) データ タグ(上位アドレス) データ タグ(上位アドレス) データ タグ(上位アドレス) データ nウェイアソシアティブ キャッシュを複数(n)毎持つ ダイレクトマップの欠点を解決 同一インデックスに対して 複数エントリを持つことで ヒット率向上。 アドレス 000000000000000000 000000000 00000 =? Hit or Miss ?
  • 20. MISS HIT! キャッシュ内のデータをライトバック データを読み込むためのキャッシュ エントリを確保するため。 LRU/ランダム/ラウンドロビン L2キャッシュから読み出し 読み出し終わるまでCPUはストール (パイプライン完全停止) Level 1 Cache 物理アドレスデータ 物理アドレスデータ 物理アドレスデータ 物理アドレスデータ L2 Cache
  • 21. About Level 2 Cache Processor LEVEL 2 CACHE CPU Core L2 Cache Mem Ctrl DRAM HW… PCIe MMU L1 Cache
  • 22. LEVEL2 CACHE SEQUENCE Address 確定 Tag 出力 比較 Data 出力 確定 Bus Clock L1 Cacheがアドレスを出力 L2 cacheがアドレスを確定 Tag読み出し制御 Tagが出力される Tag比較 -> Hit ! Data読み出し制御 Dataが出力される L1 Cacheへデータを返す 読み出しに8 Clock必要
  • 23. About DRAM Processor DYNAMIC RANDOM ACCESS MEMORY CPU Core L2 Cache Mem Ctrl DRAM HW… PCIe MMU L1 Cache
  • 25. 10 Clock@8wordバーストリード(キャッシュ1ラインフィルに相当) DDR3-SDRAM READ TIMING 参考資料: http://www.samsung.com/global/business/semiconductor/file/product/ddr3_device_operation_timing_diagram_rev121.pdf
  • 26. DDR3-SDRAM STATE CHART DDR3-SDRAMの内部状態遷移図 HW IPとして提供されることが多 いのでこれを理解している人は少 ないと思います。 重要キーワード ModeRegister プリチャージ リフレッシュ
  • 27. DRAMとキャッシュ DRAMはキャッシュに接続され る前提で機能実装 ラインフィルに必要なバース トモード 全てシングルアクセスする と致命的に遅い 要求されたデータから順にリー ド可能 Single Word Read = 7 Clock/Word 8 Words Burst Read = 1.25 Clock/Word (10 Clock / 8 Words) DRAMとキャッシュは密接な関係にあります
  • 28. Consideration Processor ヒット率と アクセス時間に 関する考察 CPU Core L2 Cache Mem Ctrl DRAM HW… PCIe MMU L1 Cache ?
  • 29. CPUの待ち時間 今までのワーストケースで1wordを読み出す時間を計算 tL1 = 1 Clock tL2 = 16 Clock (8 × 2CPUの半分のクロックで動作と過程) tDDR3 = 28 Clock (7 × 4 CPUバスの半分のクロックで動作と過程) tAllMiss = tL1 + tL2 + tDDR3 = 45 [Clock] CPUやシステムによって上記の値は全然違います。 実際の値を適用すると、もっとすごいことになります。 http://www.7-cpu.com/cpu/Cortex-A9.html
  • 30. キャッシュヒット率を考慮 キャッシュヒット率(仮定) L1、L2ともにhit率 = 90.0%と仮定。 Avarage Access Time = tL1×0.9 + tL2 × (1 - 0.9) + tDDR3 × (1 - 0.9) × 0.9 = 4.22[clock] バスクロックが遅いと? 同一クロックであっても外部バス速度が遅いCPUがあります。 例:Core2Duo 667MHz、Celeron 533MHz Avarage Access Time = tL1×0.9 + (tL2 × (1 - 0.9) + tDDR3 × (1 - 0.9) × 0.9) × 667/533 = 5.05[clock] ざっくり計算です。
  • 32. Study Processor 実験してみよう CPU Core L2 Cache Mem Ctrl DRAM HW… PCIe MMU L1 Cache ?
  • 33. Intel Performance Counter Monitorで実験してみましょう。 通常のループ 残念なループ ブロッキング アンローリング 行列計算 フォールスシェアリング
  • 34. 通常のループ src[row] += dst[row][col] dstのサイズ>>キャッシュ キャッシュ1ラインのワード数 ごとにキャッシュミスヒット。 row 0 1 src 9 row col 0 0 1 dst 65535 1 0 9 65534 9 65535 キャッシュ サイズ for (unsigned long row = 0; row < ROW_SIZE; row++) { for (unsigned long col = 0; col < COL_SIZE; col++) { *(dst + row) += *(src + row * COL_SIZE + col); } }
  • 35. 残念なループ rowのインクリメントを先にする。 インクリメント>>キャッシュ 毎回ミスヒットする。 row 0 1 src 9 row col 0 0 1 dst 65535 1 0 9 65534 9 65535 キャッシュ サイズ for (int col = 0; col < COL_SIZE; col++) { for (int row = 0; row < ROW_SIZE; row++) { *(dst + row) += *(src + row * COL_SIZE + col); } }
  • 36. ブロッキング キャッシュサイズの範囲内で 一通り処理する。 終わったら次の領域に移る。 ミスヒットが格段に減る。 row 0 1 src 9 row col 0 0 1 dst 65535 1 0 9 65534 9 65535 キャッシュ サイズ for (int Blk = 0; Blk < COL_SIZE; Blk += BLKSIZE) { for (int row = 0; row < ROW_SIZE; row++) { for (int col = Blk; col < Blk + BLKSIZE; col++) { *(dst + row) += *(src + Blk * BLKSIZE + col); } } } ブロック サイズ
  • 37. ループアンローリング ループ処理を展開して分岐命 令を削減 展開しすぎるとプログラム が大きくなり、命令キャッ シュミスが増える for (unsigned long row = 0; row < ROW_SIZE; row++) { for (unsigned long col = 0; col < COL_SIZE;) { *(data_dst + row) += *(data_src + row * COL_SIZE + col++); *(data_dst + row) += *(data_src + row * COL_SIZE + col++); *(data_dst + row) += *(data_src + row * COL_SIZE + col++); …略… *(data_dst + row) += *(data_src + row * COL_SIZE + col++); } } 処理 インクリメント 分岐判定 処理 インクリメント 分岐判定 処理 インクリメント 分岐判定 処理 インクリメント 処理 インクリメント 処理 インクリメント … … 実行命令数が減る =処理時間も減る プログラムサイズは 増える
  • 38. 行列計算 普通にアルゴリズムを書くと、先ほどの「普通のループ」 と「残念なループ」の組み合わせになる。 片方をわざと行列を入れ替えて定義する int A[row][col]; int B[col]row]; int A[row][col]; int B[row][col];
  • 39. フォールスシェアリング 複数のスレッドが同一キャッシュラインのデータにライト アクセスするときに発生し得る問題。 Core1 Core2 Cache Line Cache Line DRAM Core 1とCore2は異なるアドレスにライトする。 アドレスは異なるが、キャッシュラインは同一。 Core1がデータを書き換える。 他コアもキャッシュしているため、DRAMにライトバック。 Core2はDRAMとキャッシュが不一致のため、キャッシュさ れていたデータは「無効(データ無し)」とする。 Core2がデータを書き換える。 ミスヒットが発生し、DRAMからデータを読み出す。
  • 40. フォールスシェアリング解決策 複数のスレッドで共有する必要の無いデータはアドレスが 64バイト以上離れるようにする。 Core1 Core2 Cache Line Cache Line DRAM void worker_thread1(void) { for (int i = 0; i < MAX; i++) dstArea[0] += srcArea[i]; } ! void worker_thread2(void) { for (int i = 0; i < MAX; i++) dstArea[1] += srcArea[i]; } ! void worker_thread3(void) { for (int i = 0; i < MAX; i++) dstArea[64] += srcArea[i]; } thread1と2はフォールスシェアリング thread1と3は無し
  • 41. 実験結果:ループ 「残念なループ」はキャッシュヒッ ト率が低く、DRAMアクセスが多 い。 「ブロッキング」はDRAMアクセ スが少ない。 簡単なプログラムのため差が 出にくかったかも。 テストプログラム以外のプロセ スのカウント値も含まれてい ると思われます。 時間L1 HIT DRAM READ 普通1.68 99.82 5542MB 残念14.09 89.54 41100MB ブロッキ ング1.63 99.95 283MB アンロー リング1.62 99.91 5460MB
  • 42. 実験結果:行列計算/シェアリング 行列を入れ替えるとキャッシュ ヒット率が向上しDRAMアクセ スが減る。 フォールスシェアリングを回避 することによりDRAMアクセス が半分になっている。 「ループ」、「行列計算」、 「シェアリング」はそれぞ れ異なるテストプログラムを 実行しています。 時間L1 HIT DRAM READ 通常13.33 92.30 49.8GB 行列 入れ替え2.06 99.75 10.7GB 時間L1 HIT DRAM READ FALSE SHARE 10.54 95.42 926MB NONE SHARED 4.62 98.77 421MB
  • 43. 参考資料 アーキテクチャ全般 David A.Patterson/John L.Hennessy; パターソン&ヘネシー コンピュータの構成と設計 第4版, 日経BP社, 2011年. 中森 章; マイクロプロセッサ・アーキテクチャ入門, CQ出版, 2004年. CPU実例 ARM Cortex-A9 テクニカルリファレンスマニュアル, r2p2 CoreLink Level 2 Cache Controller L2C-310 Technical Reference Manual, r3p3 Intel Intel® 64 and IA-32 Architectures Software Developer's Manual Volume 3A: System Programming Guide, Part 1 Intel® 64 and IA-32 Architectures Optimization Reference Manual Performance Analysis Guide for Intel® Core™ i7 Processor and Intel® Xeon™ 5500 processors