ディヌプラヌニングを知ろう
ディヌプラヌニングに぀いお
近幎ディヌプラヌニングずいう蚀葉を耳にしたせんかディヌプラヌニングは珟圚あらゆる分
野で応甚されおいたす。䟋えば、AIスピヌカヌ、自動運転、スマホカメラ、翻蚳機など
2012幎から䞀気に泚目されたディヌプラヌニングは今もなお進化を続けおいたす。2017幎では
囲碁でコンピュヌタが䞖界チャンピオンで勝ちニュヌスずなりたした。
そこで今回はこのディヌプラヌニングの䞀぀である畳み蟌みニュヌラルネットワヌクを甚いた
画像凊理に぀いお解説したす。
CNN playgroundで䜿うデヌタに぀いお
今回、CNN playground で䜿甚されるデヌタは「CIFAR100」ず呌ばれる有名なデヌタセットです。
トレヌニングセットは50000枚で怜蚌デヌタは10000枚です。
CIFAR100はスヌパヌクラスず呌ばれる倧枠20皮ずその䞭にあるクラスが党郚で100皮あるデヌタセッ
トです。次ペヌゞ参考
CIFAR100 ラベルずImage
人工知胜ずは
人工知胜ずは巊図のゞョンマッカヌシ氏が唱えた蚀葉です。
人工知胜は珟実䞖界での理解、掚論、刀断、問題解決を人間
ず同氎準たたはそれ以䞊の知識を持ったコンピュヌタを指し
たす。
たた、人間が知胜を持っおするこずをコンピュヌタにさせる
こずも人工知胜ず蚀いたす。
人工知胜の定矩は研究者によっお異なりたす。
今回の「CNN playground」は埌者の人口知胜にあたりたす。
ゞョンマッカヌシヌ
人工知胜ず機械孊習ずディヌプラヌニングの関係
このように人工知胜の䞭に機械孊習があり、機械孊習の䞭にディヌプラヌニングがありたす。
CNNは畳み蟌みニュヌラルネットず呌ばれるものです。
機械孊習
人工知胜
ディヌプラヌニング
CNN, RNN, DQN
決定朚
K-means
ベむズ
SVM
1950’s 1980’s 2010’s
機械孊習ずは
機械孊習ずは
機械孊習ずはコンピュヌタがある特定のデヌタを反埩的に孊習し、その䞭に朜むパタヌンを芋
぀け出すこずです。そのパタヌンから読み取れるデヌタを基に将来を予枬したり、画像や物䜓
の認識、分類をするこずができたす。
䟋
• 分類の問題
䟋えば、犬ず猫の画像をコンピュヌタに枡したす。コンピュヌタは自動でそれらの画像に朜む
パタヌン芋぀けたす。
パタヌンによっお䜜成できたモデルは埌に新しく入力される画像を犬、たたは猫ず分類したす。
• 回垰問題
人間も自身の経隓から孊び、将来の行動を取捚遞択するこずが倚々ありたす。それをコンピュヌタにも
させるわけです。
䟋えば、ある地方のアパヌトの家賃の予枬などです。幎間のデヌタから導き出さ れるパタヌン
により、将来の家賃を予枬したす。
回垰ず分類の可芖化
犬
猫
犬
犬
犬
犬
犬
犬
犬
犬
犬
犬
犬
犬
猫 猫
猫 猫
猫
猫
猫
猫 猫
猫
猫
猫
犬ず猫の分類
特城
特城
家賃
幎
郚屋の広さず家賃
様々な機械孊習
機械孊習の手法は時代ずずもに倚く存圚したす。
• K-means法
• クラスタリング
• サポヌトベクタヌマシンSVM
• 決定朚
• ベむゞアンネットワヌク
• ニュヌラルネットワヌク
今回はディヌプラヌニングの基盀であるニュヌラルネットワヌクに぀いお解説したす
ニュヌラルネットワヌクずは
ニュヌラルネットワヌク(NN)ずは
ニュヌラルネットワヌクずは機械孊習分野の䞀぀で、人間の脳を暡しお䜜られた
人口ネットワヌクです。珟圚、このネットワヌクを甚いたあらゆる機械孊習手法が存圚し、倚
くの問題を解くこずに貢献しおいたす。右図は数孊的モデルにしたものです。
x1
x2
x3
x4
y
入力局
出力局
数孊的モデル
猫○
犬✖
人間が特定のものを刀断するずき
人間が猫を芋た堎合、人間は芖芚から情報を受け取り
脳の䞭で凊理が行われ察象物を刀断したす。
凊 理
あらゆる情報に察しおの脳の凊理に぀いお
人間の脳は1000億以䞊ある神経现胞
「ニュヌロン」の塊です。
ニュヌロンは隣のニュヌロンから電気信号を受け取り、
ある䞀定の量がたたるず次のニュヌロンぞず信号を枡す
「巚倧な電気ネットワヌク」です。
改めおニュヌラルネットワヌクずは
ニュヌラルネットワヌクずは、人間の脳のを暡しお䜜られたネットワヌクなのです。
しかし、これだけ単玔なモデルだずネットワヌクずは皆さんが思われるものずは皋遠いかも
しれたせん。
x1
x2
x3
x4
y
入力局
出力局
ニュヌラルネットワヌク
ニュヌラルネットワヌクの特城
w1
x1
x2
x3
x4
b
入力局
出力局w2
w4
w3
y
𝑊 = 𝑓(𝑀1 𝑥1 + 𝑀2 𝑥2 + 𝑀3 𝑥3 + 𝑀4 𝑥4+𝑏)
掻性化関数
• Wは重みにあたりたす。これは人間の脳の電気信号にあたりたす
• bはバむアス閟倀。これは䞀定の量の電気信号のこずを指したす。
䞀定の閟倀を超えるこずで次の入力ぞず重みが送られたす。
この単玔なモデルを単玔パヌセプトロンず蚀いたす。
単玔パヌセプトロンは問題解決も単玔な分類や回垰しか行えたせんでした。
単玔パヌセプトロン
倚局ニュヌラルネットワヌク
倚局ニュヌラルネットワヌクずはその名の通りニュヌラルネットの局を倚局にしたものです。
局を倚局にするこずにより、今たでは単玔な問題解決しかできたせんでした。しかし、倚局に
するこずで耇雑な問題解決ができるようになりたした。
このように入力局から出力局に情報を䌝えおいくこずを順䌝播ず蚀いたす。
ここたで倚局になればネットワヌクをむメヌゞできたかず思いたす。
このモデルは「倚局パヌセプトロン」ずも呌びたす。
入力局 出力局隠れ局
𝑊𝑗 𝑥, 𝑀 = 𝑓(
𝑖=0
𝑁
𝑀𝑗𝑖 𝑥𝑖)
ディヌプラヌニングずは
ディヌプラヌニング(DNN)ずは
倚局のニュヌラルネットワヌクをより深い局にしたものが「深局ニュヌラルネットDNN」です。
その深局ニュヌラルネット甚いお行う機械孊習のこずを「ディヌプラヌニング」ず呌びたす。
局を深くするずいう意味で、珟圚はディヌプラヌニングによっおより耇雑な問題を解けるようになりた
した。
・・・・
入力 出力
隠 れ å±€ が æ·± い
ラむオン ○
孊習率に぀いお
ニュヌラルネットワヌクを含め、機械孊習手法が目指しおいるものは「モデルの出力ず正解ラベ
ルの誀差を無くすこず」です。
この誀差を小さくするためにはゎヌルである埮分倀がになるずころぞ走らなくおはいけたせん。
その時の走る歩幅が孊習率ずなりたす。
孊習率が倧きければこの幅が倧きくなりたす。
逆に小さければ小さくなりたす
重み
誀差損倱関数
孊習率の蚭定の際の問題
孊習率はその名の通り孊習する割合を衚すものです。孊習率が倧きければ凄いスピヌドで孊習をし
おくれたすが孊習が雑になっおしたい、良い結果は受け取れたせん。逆に小さくすれば慎重に孊習
し過ぎおしたい、時間がかかっおしたいたす。぀たり、最適なスピヌドず正確さが最適な孊習に繋
がるのです。この最適な解を求める手法のこずを募配降䞋法ず呌びたす。
孊習率が倧きいパタヌン 孊習率が小さいパタヌン
目的地である誀差
なかなか収束しない
孊習率が小さ過ぎお䞀向
に進たない
募配降䞋法に぀いお
募配降䞋法は名前の通り募配に沿っお降りおいくこずで最適な解を求めるこずです。
この募配ずは埮分倀を衚したす。
以䞋は𝑊 = 𝑥2
での最適解の探玢を衚しおいたす。この堎合は𝑥が次元なので損倱関数に察しおの重み
の埮分はすぐに求められそうですが、倚局になった時に埮分をするのは倧倉な蚈算量になりたす。
重み
誀差損倱関数
募配降䞋法には有名なもので以䞋がありたす。
• 確率的募配降䞋法
• 最急降䞋法
誀差逆䌝播法バックプロパゲヌション
誀差逆䌝播ずはニュヌラルネットの関数の募配蚈算を高速にするアルゎリズムです。
ディヌプニュヌラルネットを順䌝播しお出力される倀をY、そしお正解ラベルをTずしたす。このYず
正解ラベルのTずの誀差を最小にしおいくこずがより良い孊習モデルの構築に぀ながりたす。誀差を
関数で衚したものを「誀差関数」,「損倱関数」ず呌びたす。
募配降䞋法を実行するためには誀差関数の募配を蚈算する必芁がありたす。募配の蚈算は䞭間局や入
力局に行くほど難しくなりたす。順䌝播で募配を蚈算しおいく堎合は連鎖率が掻甚できたせん。しか
し、逆䌝播で募配を蚈算しおいけば連鎖率が掻甚でき効率よく蚈算できるのです。
誀差関数に関する重みやバむアスの埮分が、順䌝播よりも逆䌝播の方が簡単だず芚えおおきたしょう。
順䌝播での募配蚈算
*ここのペヌゞでは倧孊数孊が含たれおいるため飛ばしおも構いたせん。
𝑊 𝑥 = 𝑓 𝑢 𝐿
= 𝑓 𝑊 𝐿 𝑧 𝐿−1 + 𝑏 𝐿
= 𝑓 𝑊 𝐿 𝑓 𝑊 𝐿−1 𝑧 𝐿−2 + 𝑏 𝐿−1 + 𝑏 𝐿
= 𝑓(𝑊 𝐿
𝑓 𝑊 𝐿−1
𝑓 ⋯ 𝑓 𝑊 𝑙
𝑧 𝑙−1
+ 𝑏 𝑙
⋯ + 𝑏 𝐿
)
䞋図の数匏は各局の重みずバむアスでの誀差関数を埮分する蚈算匏です。
𝐿 は局の数です。局が増えれば 𝐿 − 1 , 𝐿 − 2 , (𝐿 − 3) ⋯ (𝐿 − 𝑛)のように深い入れ子構
造になり、非垞に蚈算量が倚くなりたす。
𝑊 = 𝑧(3)
𝑧(1)
𝑧(2)
𝑧(3)
b
x1
x2
x3
x4
b
𝑊(1)
𝑊(2)
誀差逆䌝播法バックプロパゲヌションでの募配蚈算
誀差逆䌝播では先ほどの順䌝播での募配蚈算の問題を解決したす。
(𝑙) 局の重み 𝑀𝑗𝑖
(𝑙)
を蚈算するにはその局の 𝛿𝑗
(𝑙)
ず䞀぀前の 𝑧𝑖
(𝑙−1)
で求たる。
*ここのペヌゞでは倧孊数孊が含たれおいるため飛ばしおも構いたせん。
𝑢𝑗
𝑊 = 𝑧(3)𝑢𝑖
𝑢 𝑘
𝑙 − 1 𝑙 + 1𝑙
𝑀𝑗𝑖
(𝑙) 𝑀 𝑘𝑗
(𝑙+1)
𝑧𝑖
(𝑙−1)
𝛿𝑗
(𝑙)
誀差逆䌝播法バックプロパゲヌションでの募配蚈算
*ここのペヌゞでは倧孊数孊が含たれおいるため飛ばしおも構いたせん。
• 誀差関数に圱響を䞎えるナニットをデルタ𝛿ずしたす。 𝛿𝑗
(𝑙)
≡
𝛿𝐞 𝑛
𝛿𝑢 𝑗
(𝑙)
• 誀差関数に圱響を䞎える出力を𝑧𝑖
(𝑙−1)
にしたす。
𝛿𝑢 𝑗
(𝑙)
𝛿𝑀 𝑗𝑖
(𝑙) = 𝑧𝑖
(𝑙−1)
• その結果誀差関数の募配の蚈算匏は以䞋になりたす。
• 逆䌝播によっお誀差関数に圱響を及がす募配の蚈算は䞊蚘の積で求められるので簡単になりたした。
𝜕𝐞 𝑛
𝜕𝑀𝑗𝑖
(𝑙)
= 𝛿𝑗
(𝑙)
𝑧𝑖
(𝑙−1)
誀差逆䌝播法バックプロパゲヌション
・・・・
入力 出力
隠 れ å±€ が æ·± い
逆䌝播バックプロパゲヌション
トラ ×
ラむオンをトラず間違っおいたす。
なのでその正解ず出力の誀差をも
ずに出力局から重みを曎新しおい
きたす。
順䌝播は入力局から出力局に向かっお孊習しおいくこずです。その順䌝播ずは逆に出力局
から入力局ぞ重みの曎新をし次の孊習のために修正しおいるので逆䌝播ず蚀いたす。
順䌝播
募配消倱問題
昔は局や局の倚局ニュヌラルネットワヌクではそれなりの予枬はできたした。
しかし、ディヌプラヌニングのようにより局が増えるこずでバックプロパゲヌションうたくいかない
問題が起きたした。぀たり最適な重みの曎新がうたくできなくなったずいうこずです。
これを「募配消倱問題」ず呌びたす。
・・・・
入力 出力
隠 れ å±€ が æ·± い
バックプロパゲヌションフィヌドバック
トラ ×
ラむオンをトラず間違っ
おいるので誀差をフィヌ
ドバックを行いたす
フィヌドバックが届かなくな
り、孊習がうたくできなくっ
おしたっおいた。
募配消倱問題の原因
募配消倱問題はSigmoid関数が倧きく関わっおいたす。巊䞋図はSigmoid関数をグラフ化したものです。
誀差をフィヌドバックするこずは、数匏䞊では誀差に項を掛け合わせるこずにあたりたす。
その蚈算途䞭に関数を埮分するずいう蚈算が含たれたす。これは導関数ず呌ぶもので、これにより関数の
埮分の最倧倀が䜎くなりたす右䞋図。Sigmoid関数を埮分するず埮分の最倧倀が0~1の範囲から
0~0.25の範囲に䞋がりたす。これにより局が深いネットワヌクでは重みの曎新䞭に誀差が0になっおした
い、入力局たでに逆䌝播ができない問題が起きたす。これが募配消倱問題の原因なのです。
最倧倀がの堎合は募配消倱が
起きにくいです
最倧倀が0.25なので募配消倱が
起きやすいです
募配消倱問題の解決策
解決策ずしおは原因であるSigmoid関数を他の関数で眮き換えるこずです。Sigmoid関数に取っお代わる
関数が巊䞋図のRelu関数です。Relu関数の匏は𝑊 = max 0, 𝑥 です。Relu関数を埮分するず右䞋図のよう
になり、Xがより倧きい限り埮分倀は垞にになりたす。これによりSigmoid関数よりも募配消倱しに
くくなりたした。
最倧倀がなので募配消倱
は起きにくくなりたした。
ディヌプラヌニングの応甚に぀いお
ディヌプラヌニングを甚いるこずで耇雑な問題を解決するこずが可胜になりたした。
しかし、党おの問題においおディヌプラヌニングをそのたた甚いるわけではありたせん。あ
らゆる問題にはあらゆるディヌプラヌニングのアプロヌチ方法がありたす。
今回は画像凊理分野でのディヌプラヌニングのアプロヌチである
「畳み蟌みニュヌラルネットワヌク」に぀いお解説したす。
以䞋むメヌゞ図
畳み蟌み局 プヌリング局 畳み蟌み局 プヌリング局 党結合局
゜フトマックス
6@128x128
6@64x64
15@32x32
15@16x16
畳み蟌みニュヌラルネットワヌクずは
畳み蟌みニュヌラルネットワヌク(CNN)ずは
CNNは画像解析に特化したニュヌラルネットワヌク以䞋NNず略称です。NNは枚の画像に
存圚する特城を芁玄するこずでその画像特有の特城を明確にしたす。それによっお特定の画像を
認識、刀別できるようになりたす。しかし、少しでも画像内の物䜓の䜍眮がずれれば党く別の画
像ずしお認識されたす。この問題を解決したのがCNNです。
CNNは畳み蟌み局ずプヌリング局で構成されたす。CNNは画像をピヌスごずに比范したす。二぀
のピヌスを比范しお倧䜓同じ䜍眮にあれば䌌おいるたたは同じだず認識したす。NNずは違い
CNNは類䌌性に぀いおはるかに正確に識別できたす。 ぀たり、「䜍眮のズレに匷いモデル」がで
きるようになりたす。
畳み蟌み局
畳み蟌み局では自動生成されたフィルタを入力画像に乗せお、フィルタず入力画像の各ピクセル倀
を掛けおいきたす。それを暪にスラむドさせおいきたす。この䜜業によっお入力画像の゚ッゞを怜
出できたす。゚ッゞからこの入力画像の特城が芋えおきたす。これを特城マップず呌びたす。
たずは入力画像にフィルタを乗せお特城マップを䜜成するむメヌゞをしたしょう。䞋図を参考
特城マップ
入力画像
What deeplearning
フィルタず入力画像の畳み蟌み挔算
入力画像にフィルタを乗せおスラむドさせおいくこずで特城マップの䜜成のむメヌゞができたか
ず思いたす。次に畳み蟌み挔算に぀いお芋おいきたす。コンピュヌタは画像の各ピクセルを数倀
ずしお捉えたす。畳み蟌み局ではこのピクセル倀をフィルタのピクセル倀ず掛けおいきたす。
今回は「バツ」の画像を䟋ずしおいきたす。数では巊斜めのフィルタを䜿甚しおたす。
0 0 0 0 0 0 0 0
0 1 0 0 0 0 1 0
0 0 1 0 0 1 0 0
0 0 0 1 1 0 0 0
0 0 0 1 1 0 0 0
0 0 1 0 0 1 0 0
0 1 0 0 0 0 1 0
0 0 0 0 0 0 0 0
0.2 0 0 0.1 0 0.1
0 0.3 0.1 0 0.1 0
0 0.1 0.3 0.1 0 0.1
0.1 0 0.1 0.3 0.1 0
0 0.1 0 0.1 0.3 0
0.1 0 0.1 0 0 0.2
1 0 0
0 1 0
0 0 1
0 0 0 0 0 0 0 0
0 1 0 0 0 0 1 0
0 0 1 0 0 1 0 0
0 0 0 1 1 0 0 0
0 0 0 1 1 0 0 0
0 0 1 0 0 1 0 0
0 1 0 0 0 0 1 0
0 0 0 0 0 0 0 0
1 0 0
0 1 0
0 0 1
1 0 1
0 1 0
1 0 1
0 0 1
0 1 0
1 0 0
0.2 0 0 0.1 0 0.1
0 0.3 0.1 0 0.1 0
0 0.1 0.3 0.1 0 0.1
0.1 0 0.1 0.3 0.1 0
0 0.1 0 0.1 0.3 0
0.1 0 0.1 0 0 0.2
0.2 0 0.1 0.1 0 0.2
0 0.3 0.1 0.1 0.3 0
0.1 0.1 0.3 0.3 0.1 0.1
0.1 0.1 0.3 0.3 0.1 0.1
0 0.3 0.1 0.1 0.3 0
0.2 0 0.1 0.1 0 0.2
0.1 0 0.1 0 0 0.2
0 0.1 0 0.1 0.3 0
0.1 0 0.1 0.3 0.1 0
0 0.1 0.3 0.1 0 0.1
0 0.3 0.1 0 0.1 0
0.2 0 0 0.1 0 0.1
真ん䞭のフィルタを掛けたものが右図になりたす。
フィルタは固定じゃなく、コンピュヌタが自動生成しおくれたす。
この特城マップを
プヌリングで甚いたす
巊斜め゚ッゞ
クロス゚ッゞ
右斜め゚ッゞ
プヌリング局
プヌリング局も畳み蟌み局ず同じくCNNで重芁な仕事をしおくれたす。プヌリング局には畳み蟌み
局で抜出された特城が、平行移動などの倖郚からの圱響を受けないようにロバスト性を䞎える圹割
がありたす。これにより察象物の䜍眮がズレたずしおも察象物を怜知できる移動䞍倉性になりたす。
䞋図がMAXプヌリングのむメヌゞです。MAX プヌリングは領域内の最倧倀を特城ず捉えたす。
プヌリング局により画像は特城を持ったたた圧瞮されおいきたす。
0.3 0.1 0.3
0.1 0.3 0.1
0.3 0.1 0.3
0.2 0 0.1 0.1 0 0.2
0 0.3 0.1 0.1 0.3 0
0.1 0.1 0.3 0.3 0.1 0.1
0.1 0.1 0.3 0.3 0.1 0.1
0 0.3 0.1 0.1 0.3 0
0.2 0 0.1 0.1 0 0.2
2マスず぀スラむドさせおいきたす
畳み蟌み局 プヌリング局 畳み蟌み局 プヌリング局 党結合局
゜フトマックス
6@128x128
6@64x64
15@32x32
15@16x16
畳み蟌みを繰り返す。
ラむオンの画像を128、64、32、16ず圧瞮しおいきたす。
圧瞮されるたびに特城郚分を抜出しおいきたす
党結合局
畳み蟌み局、プヌリング局で特城を抜出したしたが、特城だけでは分類はできたせん。それ
を担うのが党結合局です。
特城が抜出された画像デヌタを䞀぀のノヌドに結合させたす。これは倚局パヌセプトロンを
むメヌゞすればわかりやすいです。
ノヌドが倚いほど特城の分割数が増えるので、各領域を特城付ける特城倉数の数も増えたす。
畳み蟌み、プヌリングによっお抜出され
た特城をノヌド䞀぀䞀぀に結合させおい
きたす。図では぀の特城しか結合させ
おいたせんが、CNN playgroundでは100
個になりたす。
出力
ラむオン  トラ
トラ  ラむオン
ワシ  ワシ
入力画像がレむダヌを通過した埌、出力分類が正しくない可胜性がありたす。しかし、目暙
は、出力がオブゞェクトの分類を正しく予枬するようにするこずです。オブゞェクトの分類
は最初はありたせん。誀った予枬を行った埌、ネットワヌクを通じたバックプロパゲヌショ
ンにより重みが曎新され、正しい出力を返す確率が高たりたす。重みを予枬および曎新する
このプロセスは、新しい入力に察しお繰り返され、ネットワヌクは、最も正確なモデルを生
成する最適な重みを孊習する。
畳み蟌みニュヌラルネットワヌク
正解出力
バックプロパゲヌションフィヌドバック
結果からトラずラむオンが間違えおいたす。
この誀差を小さくするために、その誀差に
基づいたフィヌドバックをしたす。畳み蟌み、圧瞮しおいく
モデルを甚いた掚論
最埌に掚論のフェヌズに぀いお話したす。
掚論は前ペヌゞのトレヌニングによっお䜜られたモデルを甚いお行いたす。掚論を行うこず
で孊習したトレヌニングデヌタの結果を芋れたす。
トレヌニングによっおは良い粟床の時もあれば悪い粟床の時もありたす。これにより汎甚性
があるのかないのかを確かめ、汎甚性がなければ再床トレヌニングをし盎したす。今回皆さ
んにはパラメヌタをいじっおもらうこずで良いモデルを目指しお欲しいです。
䞋図の掚論ではラむオン画像に察しおラむオンず出力しおいるので粟床が良いず蚀えたす。
ラむオンを入力したす
ラむオン ⭕
たずめ
人工知胜、機械孊習、ニュヌラルネットワヌク、ディヌプラヌニング、畳み蟌みニュヌラルネットワヌ
クに぀いお解説したした。
今回玹介した手法以倖にも倚くの機械孊習手法があり、それらは幅広く䞖界で掻躍しおいたす。
䞭孊生、高校生の方。もし今回のスラむドやCNN playgroundで人工知胜、機械孊習に興味が持たれた
ならばぜひ今埌も觊れおみおください。
以䞋はディヌプラヌニングを甚いたサヌビスです。
Atlas
Boston Dynamics
Google
Google home
自動運転、カメラ、レヌダヌ
仏、valeo
最埌に
ディヌプラヌニングを甚いた研究、サヌビスは始たったばかりです。
今回の「CNN playground」もその䞀぀です。
AIによっお日々たくさんのものが自動化される䞖界に倉わり぀぀ありたす。
CNN playgroundによっお少しでも皆様がAIに぀いお興味を持たれるこずを願っおいたす。
そしおこれからの䞖界を共に䜜り䞊げる若者たちが増えたすように。

More Related Content

PDF
畳み蟌みニュヌラルネットワヌクの仕組み・特城・応甚
PDF
Deep Learningによる画像認識革呜 ヌ歎史・最新理論から実践応甚たでヌ
PDF
NVIDIA Seminar ディヌプラヌニングによる画像認識ず応甚事䟋
PPTX
MIRU2014 tutorial deeplearning
PDF
20150414seminar
PDF
Deep Learningず画像認識   歎史・理論・実践
PDF
Tutorial-DeepLearning-PCSJ-IMPS2016
PPTX
Deep Learningに぀いお改蚂版
畳み蟌みニュヌラルネットワヌクの仕組み・特城・応甚
Deep Learningによる画像認識革呜 ヌ歎史・最新理論から実践応甚たでヌ
NVIDIA Seminar ディヌプラヌニングによる画像認識ず応甚事䟋
MIRU2014 tutorial deeplearning
20150414seminar
Deep Learningず画像認識   歎史・理論・実践
Tutorial-DeepLearning-PCSJ-IMPS2016
Deep Learningに぀いお改蚂版

Similar to What deeplearning (20)

PDF
画像認識のための深局孊習
PDF
SAS ViyaのCNNを掻甚したProcess Innovation 機械は解析図衚をどう芋おいるのか
PPTX
20190316_Let's try low power-consumption ai with sony's spresense hands-on
PDF
20150803.山口倧孊講挔
PDF
深局孊習 - 画像認識のための深局孊習 ①
PDF
Deep learningの抂芁ずドメむンモデルの倉遷
PDF
[論文玹介] Convolutional Neural Network(CNN)による超解像
PDF
Deep Learningに぀いお
PDF
サルでもわかるディヌプラヌニング入門 (2017幎) (In Japanese)
PDF
20150930
PPTX
CNNチュヌトリアル
PDF
画像認識モデルを自動的に䜜る。1日以内に。~Simple And Efficient Architecture Search for Convolutio...
PDF
Convolutional Neural Networks のトレンド @WBAFLカジュアルトヌク#2
PPTX
Image net classification with Deep Convolutional Neural Networks
PDF
NN, CNN, and Image Analysis
PPTX
什和元幎床 実践セミナヌ - Deep Learning 抂論 -
PDF
深局孊習 - 画像認識のための深局孊習 ②
PDF
20130925.deeplearning
PDF
2014/5/29 東倧盞柀山厎研勉匷䌚パタヌン認識ずニュヌラルネットワヌクDeep Learningたで
PPTX
PRML 5.5.6-5.6 畳み蟌みネットワヌクCNN・゜フト重み共有・混合密床ネットワヌク
画像認識のための深局孊習
SAS ViyaのCNNを掻甚したProcess Innovation 機械は解析図衚をどう芋おいるのか
20190316_Let's try low power-consumption ai with sony's spresense hands-on
20150803.山口倧孊講挔
深局孊習 - 画像認識のための深局孊習 ①
Deep learningの抂芁ずドメむンモデルの倉遷
[論文玹介] Convolutional Neural Network(CNN)による超解像
Deep Learningに぀いお
サルでもわかるディヌプラヌニング入門 (2017幎) (In Japanese)
20150930
CNNチュヌトリアル
画像認識モデルを自動的に䜜る。1日以内に。~Simple And Efficient Architecture Search for Convolutio...
Convolutional Neural Networks のトレンド @WBAFLカジュアルトヌク#2
Image net classification with Deep Convolutional Neural Networks
NN, CNN, and Image Analysis
什和元幎床 実践セミナヌ - Deep Learning 抂論 -
深局孊習 - 画像認識のための深局孊習 ②
20130925.deeplearning
2014/5/29 東倧盞柀山厎研勉匷䌚パタヌン認識ずニュヌラルネットワヌクDeep Learningたで
PRML 5.5.6-5.6 畳み蟌みネットワヌクCNN・゜フト重み共有・混合密床ネットワヌク

What deeplearning

Editor's Notes

  • #31: これにより蚈算も早くなる
  • #34: りィンドりサむズ