Deep Learning in Python
Deep Neural Network
김동민|Dongmin Kim
Deep Learning
Dongmin Kim
dmk2436@gmail.com
Dongmin Kim, 2018
Review - Matrix
 행과 열로 표현한 데이터
a
𝑎
𝑏
𝑐
𝑑
𝑒
𝑎 𝑏
𝑐 𝑑
스칼라
(Scalar)
0차원
벡터
(Vector)
1차원
행렬
(Matrix)
2차원
텐서
(Tensor)
n차원(𝑛 ≥ 0)
Dongmin Kim, 2018
Neural Networks
Dongmin Kim, 2018
Neural Network
 사람의 신경망에서 영감을 얻어 이를 구현(꼭 똑같이 구현할 필요 없음)
 각 뉴런 사이의 연결에 의하여 병렬적인 사고
 각 연결은 상황에 맞게 조정됨
가지돌기
몸체
축삭돌기
축삭둔덕
가지돌기
•다른 신경으로부터 온 전기
신호가 모아짐(입력)
축삭둔덕
•일정 세기 이상이 되어야만
전기 신호 발생
축삭돌기
•전기 신호를 다른 신경으로
보냄(출력)
Input
Input
Output
Output
Dongmin Kim, 2018
Artificial Neuron
Input
Vector
(1xm)
X
Weight Matrix
(mxn)
(1xn)
Output
Vector
(1xn)
S
Activation
Function
Dongmin Kim, 2018
Activation Function
Linear Neuron Binary Threshold
Neuron
Rectified Linear
Unit(ReLU)
Leaky ReLU Sigmoid
간단하지만 활용성
제약
미분을 통한
가중치 수정 불가
0보다 작으면
미분을 통한
가중치 수정 불가
Exp연산이
비효율적
편의상 x=0 지점의 기울기를 1이라고 함
Dongmin Kim, 2018
Bias
 편의상 뉴런에 있는 b라는 상수항 대신 입력이 1이고 b라는
가중치를 가진 입력이 있다고 표현
y
𝑥0 𝑥1
y
𝑥0 𝑥1 1
𝑤0 𝑤1
𝑤0
𝑤1
𝑏
Dongmin Kim, 2018
Multi Class Classification
𝑥0 𝑥1 1
𝑦0 𝑦1
Input
Output
Dongmin Kim, 2018
Image Classification Task
𝑥0 𝑥1 1
𝑦0 𝑦1
Input
Output
Image Vector(Matrix to Vector)
Label
(Person, Cat, Vehicle, etc)
Dongmin Kim, 2018
Learning
 모델의 가중치를 최적의 분류를 향하여 조정하는 과정
Accuracy: 46.43%
Dongmin Kim, 2018
Learning
 모델의 가중치를 최적의 분류를 향하여 조정하는 과정
Accuracy: 57.14%
Dongmin Kim, 2018
Learning
 모델의 가중치를 최적의 분류를 향하여 조정하는 과정
Accuracy: 89.29%
Dongmin Kim, 2018
Learning
 모델의 가중치를 최적의 분류를 향하여 조정하는 과정
Accuracy: 100.00%
(Loss function still decreases)
Dongmin Kim, 2018
Learning
 모델의 가중치를 최적의 분류를 향하여 조정하는 과정
Accuracy: 100.00%
(Loss function still decreases)
Dongmin Kim, 2018
Learning
 모델의 가중치를 최적의 분류를 향하여 조정하는 과정
Accuracy: 100.00%
(Optimal Point)
Dongmin Kim, 2018
Learning – Decreasing Loss Function
Dongmin Kim, 2018
Loss Function
 모델이 잘못 분류하는 정도를 나타내는 기본적인 척도
 Mean Squared Error: 𝐸 =
1
2 𝑖∈𝑡𝑟𝑎𝑖𝑛𝑖𝑛𝑔(𝑓(𝑥 𝑖
) − 𝑦 𝑖
)2
 Cross Entropy: 𝐸 = −
1
𝑛 𝑖∈𝑡𝑟𝑎𝑖𝑛𝑖𝑛𝑔[𝑦 𝑖 𝑙𝑛𝑓 𝑥 𝑖 + (1 − 𝑦 𝑖 )ln(1 − 𝑓 𝑥 𝑖 )]
 Cross Entropy는 Mean Squared Error가 학습 속도가 느려진다는 단점을 보완함
 𝐶𝑜𝑠𝑡 𝐹𝑢𝑛𝑐𝑡𝑖𝑜𝑛 ⊂ 𝐿𝑜𝑠𝑠 𝐹𝑢𝑛𝑐𝑡𝑖𝑜𝑛 ⊂ 𝑂𝑏𝑗𝑒𝑐𝑡𝑖𝑣𝑒 𝐹𝑢𝑛𝑐𝑡𝑖𝑜𝑛
미분했을 때, 깔끔하게 계수를 없애기 위하여
1
2
을 곱해줌
Dongmin Kim, 2018
Gradient 구하여 학습하기
(Stochastic Gradient Descent, SGD)
 미분을 통하여 Gradient 구하기
Dongmin Kim, 2018
Single Neuron’s Limitations
 스스로 특징을 찾아야 하며, 이를 통하여 학습할 수 있는 정보도 제한적임
 단순하여 복잡한 데이터를 반영 못함(XOR 예시)
Dongmin Kim, 2018
Introducing the Hidden Layer
& Deep Neural Network
 Deep Neural Network(DNN)은 여러 개의 Single Neuron을 계층적으로 쌓은 것임
 다층 구조의 효과를 드러내기 위해서는 각 Neuron은 non-linear이어야 함
 스스로 특성을 찾는 Deep Learning이고 학습할 수 있는 정보도 많아짐
 복잡한 데이터를 반영할 수 있음
Dongmin Kim, 2018
Chain Rule
 Chain Rule:
𝜕𝑦
𝜕𝑥
=
𝜕𝑧
𝜕𝑥
𝜕𝑦
𝜕𝑧
Dongmin Kim, 2018
Data Segmentation
 Without model tuning
 With model tuning
Training Set (70%) Test Set (30%)
Training Set (50%) Test Set (30%)
Validation
Set (20%)
Dongmin Kim, 2018
Batch Learning
 Full Batch Learning: 1번에
 Mini Batch Learning: 일정개씩
 Sophisticated Learning: 1개씩
21 3 4 5 6 7 8 109 11 12
21 3 4 5 6 7 8 109 11 12
21 3 4 5 6 7 8 109 11 12
Dongmin Kim, 2018
Initialization
W=0 (Vanilla Initialization)
Random Initialization
Xavier/He Initialization:
Dongmin Kim, 2018
Batch Normalization
각 Layer마다 적용
PCA(차원 축소) 또는 Whitening(변수 간의 종속관계 제거)을 할 때도 있음
Dongmin Kim, 2018
Handling Learning Circumstances
Good Bad
Dongmin Kim, 2018
Momentum Method
(Vanilla) SGD
SGD + Momentum
Nestrov Momentum
Dongmin Kim, 2018
Momentum Method
AdaGrad
RMSProp
Adam
Dongmin Kim, 2018
Early Stopping
Dongmin Kim, 2018
Regularization
L1
Regularization
• 손실함수 +
1
2
𝜆𝜔2
L2
Regularization
• 손실함수 + 𝜆 𝜔
Elastic Net
Regularization
• L1 + L2
Max Norm
Constraints
• 𝜔 2 < 𝑐
Dropout Dense-sparse-
dense(DSD)
Dongmin Kim, 2018
Restricted Boltzmann Machine(RBM)
Dongmin Kim, 2018
One-hot Vector
 1개의 원소만 값이 1이고, 나머지 원소는 값이 0인 벡터
 E.g. 0 – 4까지의 값을 가질 때, 3 → [0, 0, 1, 0, 0]
 반대말: One-cold Vector, e.g. [1, 0, 1, 1, 1]
Dongmin Kim, 2018
MNIST Classification Example
Dongmin Kim, 2018
Effectively dealing with Computer Vision(CV) problem
→ Convolutional Neural Network(CNN)
DNN CNN
Dongmin Kim, 2018
Convolution Layer
Dongmin Kim, 2018
CNN Architecture
Dongmin Kim, 2018
Pooling
주의: Pooling은 인지적으로 타당하지 않은 접근임. Capsule Network 등이 대안
Dongmin Kim, 2018
Fully Connected Layer
 = DNN
Dongmin Kim, 2018
CIFAR-100 Classification Example
Dongmin Kim, 2018
Effectively dealing with Sequential problems:
Recurrent Neural Network(RNN)
 E.g. Natural Language Processing(NLP)
Memoryless Models Hidden Markov Model(HMM)
Recurrent Neural Network(RNN)
Dongmin Kim, 2018
RNN
Dongmin Kim, 2018
Problems of RNN
Dongmin Kim, 2018
Reducing the Exploding Gradients
 근본적인 해결책이 되지는 못함
Dongmin Kim, 2018
Solution to the Problem: Changing the Architecture
Dongmin Kim, 2018
Long Short-term Memory(LSTM)
Dongmin Kim, 2018
(Soft) Attention Models
Dongmin Kim, 2018
Other Sequential Models
Gated Recurrent Unit(GRU) Differentiable Neural Computer(DNC)
Dongmin Kim, 2018
Review - Neural Network
 사람의 신경망에서 영감을 얻어 이를 구현(꼭 똑같이 구현할 필요 없음)
 각 뉴런 사이의 연결에 의하여 병렬적인 사고
 각 연결은 상황에 맞게 조정됨
가지돌기
몸체
축삭돌기
축삭둔덕
가지돌기
•다른 신경으로부터 온 전기
신호가 모아짐(입력)
축삭둔덕
•일정 세기 이상이 되어야만
전기 신호 발생
축삭돌기
•전기 신호를 다른 신경으로
보냄(출력)
Input
Input
Output
Output
Dongmin Kim, 2018
Review - Learning – Decreasing Loss Function
Dongmin Kim, 2018
Review - Introducing the Hidden Layer
& Deep Neural Network
 Deep Neural Network(DNN)은 여러 개의 Single Neuron을 계층적으로 쌓은 것임
 다층 구조의 효과를 드러내기 위해서는 각 Neuron은 non-linear이어야 함
 스스로 특성을 찾는 Deep Learning이고 학습할 수 있는 정보도 많아짐
 복잡한 데이터를 반영할 수 있음
Dongmin Kim, 2018
Review - Effectively dealing with Computer Vision(CV)
problems → Convolutional Neural Network(CNN)
DNN CNN
Dongmin Kim, 2018
Review - RNN
Dongmin Kim, 2018

More Related Content

PPTX
InfoGAN Paper Review
PPTX
Progressive Growing of GANs for Improved Quality, Stability, and Variation Re...
PPTX
Face Feature Recognition System with Deep Belief Networks, for Korean/KIISE T...
PDF
Energy based models and boltzmann machines
PPTX
A Beginner's guide to understanding Autoencoder
PDF
인공신경망
PDF
From maching learning to deep learning
PDF
[신경망기초] 심층신경망개요
InfoGAN Paper Review
Progressive Growing of GANs for Improved Quality, Stability, and Variation Re...
Face Feature Recognition System with Deep Belief Networks, for Korean/KIISE T...
Energy based models and boltzmann machines
A Beginner's guide to understanding Autoencoder
인공신경망
From maching learning to deep learning
[신경망기초] 심층신경망개요

What's hot (20)

PDF
Deview deep learning-김정희
PDF
[기초개념] Recurrent Neural Network (RNN) 소개
PPTX
알아두면 쓸데있는 신비한 딥러닝 이야기
PDF
Deep Learning & Convolutional Neural Network
PDF
Lecture 4: Neural Networks I
PPTX
Focal loss의 응용(Detection & Classification)
PPTX
Image Deep Learning 실무적용
PPTX
A neural image caption generator
PDF
딥러닝 기본 원리의 이해
PPTX
Recurrent Neural Net의 이론과 설명
PDF
Attention is all you need 설명
PPTX
텐서플로우 2.0 튜토리얼 - RNN
PPTX
딥러닝 - 역사와 이론적 기초
PPTX
Graph Neural Network (한국어)
PDF
[기초개념] Graph Convolutional Network (GCN)
PDF
Energy based models and boltzmann machines - v2.0
PPTX
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
PDF
Lecture 3: Unsupervised Learning
PPTX
03.12 cnn backpropagation
PDF
딥러닝의 기본
Deview deep learning-김정희
[기초개념] Recurrent Neural Network (RNN) 소개
알아두면 쓸데있는 신비한 딥러닝 이야기
Deep Learning & Convolutional Neural Network
Lecture 4: Neural Networks I
Focal loss의 응용(Detection & Classification)
Image Deep Learning 실무적용
A neural image caption generator
딥러닝 기본 원리의 이해
Recurrent Neural Net의 이론과 설명
Attention is all you need 설명
텐서플로우 2.0 튜토리얼 - RNN
딥러닝 - 역사와 이론적 기초
Graph Neural Network (한국어)
[기초개념] Graph Convolutional Network (GCN)
Energy based models and boltzmann machines - v2.0
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
Lecture 3: Unsupervised Learning
03.12 cnn backpropagation
딥러닝의 기본
Ad

Similar to iT Cafe - Deep Learning (20)

PDF
Deep neural networks cnn rnn_ae_some practical techniques
PPTX
Deep learning overview
PPTX
인공지능, 기계학습 그리고 딥러닝
PPTX
Anomaly detection practive_using_deep_learning
PDF
3.neural networks
PDF
CoreDot TechSeminar 2018 - Session4 Park Eonyong
PDF
Ai study - 2 layer feed-forward network, Backpropagation
PPTX
기계학습 / 딥러닝이란 무엇인가
PDF
Neural network의 변천사 이태영
PDF
파이썬으로 익히는 딥러닝 기본 (18년)
PDF
Neural Networks Basics with PyTorch
PDF
딥뉴럴넷 클러스터링 실패기
PDF
텐서플로우로 배우는 딥러닝
PDF
Deep Learning from scratch 3장 : neural network
PDF
​『골빈해커의 3분 딥러닝』 맛보기
PPTX
Apache MXNet으로 배워보는 딥러닝(Deep Learning) - 김무현 (AWS 솔루션즈아키텍트)
PDF
딥러닝 세계에 입문하기 위반 분투
PPTX
Keras
PPTX
Neural network (perceptron)
PPTX
13-DfdasdfsafdsafdasfdasfdsadfasfdsafNN.pptx
Deep neural networks cnn rnn_ae_some practical techniques
Deep learning overview
인공지능, 기계학습 그리고 딥러닝
Anomaly detection practive_using_deep_learning
3.neural networks
CoreDot TechSeminar 2018 - Session4 Park Eonyong
Ai study - 2 layer feed-forward network, Backpropagation
기계학습 / 딥러닝이란 무엇인가
Neural network의 변천사 이태영
파이썬으로 익히는 딥러닝 기본 (18년)
Neural Networks Basics with PyTorch
딥뉴럴넷 클러스터링 실패기
텐서플로우로 배우는 딥러닝
Deep Learning from scratch 3장 : neural network
​『골빈해커의 3분 딥러닝』 맛보기
Apache MXNet으로 배워보는 딥러닝(Deep Learning) - 김무현 (AWS 솔루션즈아키텍트)
딥러닝 세계에 입문하기 위반 분투
Keras
Neural network (perceptron)
13-DfdasdfsafdsafdasfdasfdsadfasfdsafNN.pptx
Ad

iT Cafe - Deep Learning

  • 1. Deep Learning in Python Deep Neural Network 김동민|Dongmin Kim Deep Learning Dongmin Kim dmk2436@gmail.com
  • 2. Dongmin Kim, 2018 Review - Matrix  행과 열로 표현한 데이터 a 𝑎 𝑏 𝑐 𝑑 𝑒 𝑎 𝑏 𝑐 𝑑 스칼라 (Scalar) 0차원 벡터 (Vector) 1차원 행렬 (Matrix) 2차원 텐서 (Tensor) n차원(𝑛 ≥ 0)
  • 4. Dongmin Kim, 2018 Neural Network  사람의 신경망에서 영감을 얻어 이를 구현(꼭 똑같이 구현할 필요 없음)  각 뉴런 사이의 연결에 의하여 병렬적인 사고  각 연결은 상황에 맞게 조정됨 가지돌기 몸체 축삭돌기 축삭둔덕 가지돌기 •다른 신경으로부터 온 전기 신호가 모아짐(입력) 축삭둔덕 •일정 세기 이상이 되어야만 전기 신호 발생 축삭돌기 •전기 신호를 다른 신경으로 보냄(출력) Input Input Output Output
  • 5. Dongmin Kim, 2018 Artificial Neuron Input Vector (1xm) X Weight Matrix (mxn) (1xn) Output Vector (1xn) S Activation Function
  • 6. Dongmin Kim, 2018 Activation Function Linear Neuron Binary Threshold Neuron Rectified Linear Unit(ReLU) Leaky ReLU Sigmoid 간단하지만 활용성 제약 미분을 통한 가중치 수정 불가 0보다 작으면 미분을 통한 가중치 수정 불가 Exp연산이 비효율적 편의상 x=0 지점의 기울기를 1이라고 함
  • 7. Dongmin Kim, 2018 Bias  편의상 뉴런에 있는 b라는 상수항 대신 입력이 1이고 b라는 가중치를 가진 입력이 있다고 표현 y 𝑥0 𝑥1 y 𝑥0 𝑥1 1 𝑤0 𝑤1 𝑤0 𝑤1 𝑏
  • 8. Dongmin Kim, 2018 Multi Class Classification 𝑥0 𝑥1 1 𝑦0 𝑦1 Input Output
  • 9. Dongmin Kim, 2018 Image Classification Task 𝑥0 𝑥1 1 𝑦0 𝑦1 Input Output Image Vector(Matrix to Vector) Label (Person, Cat, Vehicle, etc)
  • 10. Dongmin Kim, 2018 Learning  모델의 가중치를 최적의 분류를 향하여 조정하는 과정 Accuracy: 46.43%
  • 11. Dongmin Kim, 2018 Learning  모델의 가중치를 최적의 분류를 향하여 조정하는 과정 Accuracy: 57.14%
  • 12. Dongmin Kim, 2018 Learning  모델의 가중치를 최적의 분류를 향하여 조정하는 과정 Accuracy: 89.29%
  • 13. Dongmin Kim, 2018 Learning  모델의 가중치를 최적의 분류를 향하여 조정하는 과정 Accuracy: 100.00% (Loss function still decreases)
  • 14. Dongmin Kim, 2018 Learning  모델의 가중치를 최적의 분류를 향하여 조정하는 과정 Accuracy: 100.00% (Loss function still decreases)
  • 15. Dongmin Kim, 2018 Learning  모델의 가중치를 최적의 분류를 향하여 조정하는 과정 Accuracy: 100.00% (Optimal Point)
  • 16. Dongmin Kim, 2018 Learning – Decreasing Loss Function
  • 17. Dongmin Kim, 2018 Loss Function  모델이 잘못 분류하는 정도를 나타내는 기본적인 척도  Mean Squared Error: 𝐸 = 1 2 𝑖∈𝑡𝑟𝑎𝑖𝑛𝑖𝑛𝑔(𝑓(𝑥 𝑖 ) − 𝑦 𝑖 )2  Cross Entropy: 𝐸 = − 1 𝑛 𝑖∈𝑡𝑟𝑎𝑖𝑛𝑖𝑛𝑔[𝑦 𝑖 𝑙𝑛𝑓 𝑥 𝑖 + (1 − 𝑦 𝑖 )ln(1 − 𝑓 𝑥 𝑖 )]  Cross Entropy는 Mean Squared Error가 학습 속도가 느려진다는 단점을 보완함  𝐶𝑜𝑠𝑡 𝐹𝑢𝑛𝑐𝑡𝑖𝑜𝑛 ⊂ 𝐿𝑜𝑠𝑠 𝐹𝑢𝑛𝑐𝑡𝑖𝑜𝑛 ⊂ 𝑂𝑏𝑗𝑒𝑐𝑡𝑖𝑣𝑒 𝐹𝑢𝑛𝑐𝑡𝑖𝑜𝑛 미분했을 때, 깔끔하게 계수를 없애기 위하여 1 2 을 곱해줌
  • 18. Dongmin Kim, 2018 Gradient 구하여 학습하기 (Stochastic Gradient Descent, SGD)  미분을 통하여 Gradient 구하기
  • 19. Dongmin Kim, 2018 Single Neuron’s Limitations  스스로 특징을 찾아야 하며, 이를 통하여 학습할 수 있는 정보도 제한적임  단순하여 복잡한 데이터를 반영 못함(XOR 예시)
  • 20. Dongmin Kim, 2018 Introducing the Hidden Layer & Deep Neural Network  Deep Neural Network(DNN)은 여러 개의 Single Neuron을 계층적으로 쌓은 것임  다층 구조의 효과를 드러내기 위해서는 각 Neuron은 non-linear이어야 함  스스로 특성을 찾는 Deep Learning이고 학습할 수 있는 정보도 많아짐  복잡한 데이터를 반영할 수 있음
  • 21. Dongmin Kim, 2018 Chain Rule  Chain Rule: 𝜕𝑦 𝜕𝑥 = 𝜕𝑧 𝜕𝑥 𝜕𝑦 𝜕𝑧
  • 22. Dongmin Kim, 2018 Data Segmentation  Without model tuning  With model tuning Training Set (70%) Test Set (30%) Training Set (50%) Test Set (30%) Validation Set (20%)
  • 23. Dongmin Kim, 2018 Batch Learning  Full Batch Learning: 1번에  Mini Batch Learning: 일정개씩  Sophisticated Learning: 1개씩 21 3 4 5 6 7 8 109 11 12 21 3 4 5 6 7 8 109 11 12 21 3 4 5 6 7 8 109 11 12
  • 24. Dongmin Kim, 2018 Initialization W=0 (Vanilla Initialization) Random Initialization Xavier/He Initialization:
  • 25. Dongmin Kim, 2018 Batch Normalization 각 Layer마다 적용 PCA(차원 축소) 또는 Whitening(변수 간의 종속관계 제거)을 할 때도 있음
  • 26. Dongmin Kim, 2018 Handling Learning Circumstances Good Bad
  • 27. Dongmin Kim, 2018 Momentum Method (Vanilla) SGD SGD + Momentum Nestrov Momentum
  • 28. Dongmin Kim, 2018 Momentum Method AdaGrad RMSProp Adam
  • 30. Dongmin Kim, 2018 Regularization L1 Regularization • 손실함수 + 1 2 𝜆𝜔2 L2 Regularization • 손실함수 + 𝜆 𝜔 Elastic Net Regularization • L1 + L2 Max Norm Constraints • 𝜔 2 < 𝑐 Dropout Dense-sparse- dense(DSD)
  • 31. Dongmin Kim, 2018 Restricted Boltzmann Machine(RBM)
  • 32. Dongmin Kim, 2018 One-hot Vector  1개의 원소만 값이 1이고, 나머지 원소는 값이 0인 벡터  E.g. 0 – 4까지의 값을 가질 때, 3 → [0, 0, 1, 0, 0]  반대말: One-cold Vector, e.g. [1, 0, 1, 1, 1]
  • 33. Dongmin Kim, 2018 MNIST Classification Example
  • 34. Dongmin Kim, 2018 Effectively dealing with Computer Vision(CV) problem → Convolutional Neural Network(CNN) DNN CNN
  • 36. Dongmin Kim, 2018 CNN Architecture
  • 37. Dongmin Kim, 2018 Pooling 주의: Pooling은 인지적으로 타당하지 않은 접근임. Capsule Network 등이 대안
  • 38. Dongmin Kim, 2018 Fully Connected Layer  = DNN
  • 39. Dongmin Kim, 2018 CIFAR-100 Classification Example
  • 40. Dongmin Kim, 2018 Effectively dealing with Sequential problems: Recurrent Neural Network(RNN)  E.g. Natural Language Processing(NLP) Memoryless Models Hidden Markov Model(HMM) Recurrent Neural Network(RNN)
  • 43. Dongmin Kim, 2018 Reducing the Exploding Gradients  근본적인 해결책이 되지는 못함
  • 44. Dongmin Kim, 2018 Solution to the Problem: Changing the Architecture
  • 45. Dongmin Kim, 2018 Long Short-term Memory(LSTM)
  • 46. Dongmin Kim, 2018 (Soft) Attention Models
  • 47. Dongmin Kim, 2018 Other Sequential Models Gated Recurrent Unit(GRU) Differentiable Neural Computer(DNC)
  • 48. Dongmin Kim, 2018 Review - Neural Network  사람의 신경망에서 영감을 얻어 이를 구현(꼭 똑같이 구현할 필요 없음)  각 뉴런 사이의 연결에 의하여 병렬적인 사고  각 연결은 상황에 맞게 조정됨 가지돌기 몸체 축삭돌기 축삭둔덕 가지돌기 •다른 신경으로부터 온 전기 신호가 모아짐(입력) 축삭둔덕 •일정 세기 이상이 되어야만 전기 신호 발생 축삭돌기 •전기 신호를 다른 신경으로 보냄(출력) Input Input Output Output
  • 49. Dongmin Kim, 2018 Review - Learning – Decreasing Loss Function
  • 50. Dongmin Kim, 2018 Review - Introducing the Hidden Layer & Deep Neural Network  Deep Neural Network(DNN)은 여러 개의 Single Neuron을 계층적으로 쌓은 것임  다층 구조의 효과를 드러내기 위해서는 각 Neuron은 non-linear이어야 함  스스로 특성을 찾는 Deep Learning이고 학습할 수 있는 정보도 많아짐  복잡한 데이터를 반영할 수 있음
  • 51. Dongmin Kim, 2018 Review - Effectively dealing with Computer Vision(CV) problems → Convolutional Neural Network(CNN) DNN CNN