SlideShare a Scribd company logo
밑바닥부터 시작하는 딥러닝
박성현 zkfthfl123@naver.com
목차
• 정확도를 더 높이려면?
• 층을 깊게 하는 이유
• 또다른 CNN 구조들
정확도를 높이려면?
• 데이터 확장
입력 이미지(훈련 이미지)를 알고리즘을
동원해 ‘인위적’으로 확장한다.
데이터가 몇 개 없을 때 효과적이다.
회전, 이동, 자르기, 대칭 등이 있다.
층을 깊게 하는 이유
입력 출력
5x5
층을 깊게 하는 이유
입력 출력
3x3 3x3
중간
층을 깊게 하는 이유
• 5x5의 합성곱 연산 1회는 3x3 연산을 2회 수행하여 대체 가능함.
• 5x5 합성곱 매개변수의 수는 25개
• 3x3 합성곱 매개변수의 수는 18개 (2x3x3)
• 층을 깊게 함으로써 학습 데이터의 양을 줄여 고속화가 가능.
또다른 CNN 구조들
VGG
• 합성곱 계층과 풀링 계층으로 구성되는 ‘기본적’인 CNN
• 3x3의 작은 필터를 사용한 합성곱 계층을 연속으로 거치는 것이 특징이다.
• 2014년 대회에서 2위에 올랐음(1위 : GoogLeNet), 구성이 간단하여 응용하기 좋음
GoogLeNet
• 세로 방향 깊이뿐 아니라 가로 방향도 깊다는 점이 특징
• 가로 방향의 폭 : 인셉션 구조
• 인셉션 구조는 크기가 다른 필터를 여러 개 적용하여 그 결과를 결합한다.
• 1x1 크기의 필터를 많은 곳에서 사용한다. (채널쪽 으로 크기를 줄임)
ResNet
• 층이 지나치게 깊으면 학습이 잘 되지 않고, 성능이 떨어지는 경우가 많다.
• 해결책으로 스킵 연결(skip connection)을 도입했다.
• 입력 데이터를 합성곱 계층을 건너 뛰어 출력에 바로 더하는 구조이다.
• 역전파 때 스킵 연결이 신호 감쇠를 막아준다.

More Related Content

PDF
DL from scratch(4~5)
PDF
Dl from scratch(7)
PDF
DL from scratch(6)
PDF
DL from scratch(1~3)
PDF
합성곱 신경망
PPTX
알기쉬운 Variational autoencoder
PDF
From maching learning to deep learning
PPTX
Deep learning seminar_snu_161031
DL from scratch(4~5)
Dl from scratch(7)
DL from scratch(6)
DL from scratch(1~3)
합성곱 신경망
알기쉬운 Variational autoencoder
From maching learning to deep learning
Deep learning seminar_snu_161031

What's hot (20)

PDF
keras 빨리 훑어보기(intro)
PPTX
Focal loss의 응용(Detection & Classification)
PDF
밑바닥부터 시작하는 딥러닝_신경망학습
PDF
3.unsupervised learing
PDF
Chapter 6 Deep feedforward networks - 2
PPTX
Normalization 방법
PPTX
Image net classification with deep convolutional neural networks
PPTX
Chapter 7 Regularization for deep learning - 3
PDF
Alexnet paper review
PDF
Lecture 4: Neural Networks I
PDF
Coursera Machine Learning (by Andrew Ng)_강의정리
PDF
Reinforcement learning v0.5
PDF
PR-203: Class-Balanced Loss Based on Effective Number of Samples
PPTX
Image classification
PDF
3.neural networks
PDF
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
PDF
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
PDF
4.convolutional neural networks
keras 빨리 훑어보기(intro)
Focal loss의 응용(Detection & Classification)
밑바닥부터 시작하는 딥러닝_신경망학습
3.unsupervised learing
Chapter 6 Deep feedforward networks - 2
Normalization 방법
Image net classification with deep convolutional neural networks
Chapter 7 Regularization for deep learning - 3
Alexnet paper review
Lecture 4: Neural Networks I
Coursera Machine Learning (by Andrew Ng)_강의정리
Reinforcement learning v0.5
PR-203: Class-Balanced Loss Based on Effective Number of Samples
Image classification
3.neural networks
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
4.convolutional neural networks
Ad

Similar to Dl from scratch(8) (20)

PDF
Deep Learning & Convolutional Neural Network
PDF
밑바닥부터 시작하는딥러닝 8장
PDF
Deep neural networks cnn rnn_ae_some practical techniques
PDF
History of Vision AI
PDF
Deep learning의 이해
PPTX
인공지능, 기계학습 그리고 딥러닝
PDF
딥러닝 기본 원리의 이해
PPTX
GoogLenet
PDF
[신경망기초] 심층신경망개요
PPTX
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
PPTX
Deep learning overview
PPTX
Image Deep Learning 실무적용
PDF
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
PDF
델켐매거진5호
PDF
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
PPTX
딥러닝 - 역사와 이론적 기초
PDF
Searching for magic formula by deep learning
PDF
1주차 - 자바 프로젝트_ Hidden layer과 Backpropagation.pdf
PPTX
Deep learning application_to_manufacturing
Deep Learning & Convolutional Neural Network
밑바닥부터 시작하는딥러닝 8장
Deep neural networks cnn rnn_ae_some practical techniques
History of Vision AI
Deep learning의 이해
인공지능, 기계학습 그리고 딥러닝
딥러닝 기본 원리의 이해
GoogLenet
[신경망기초] 심층신경망개요
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
Deep learning overview
Image Deep Learning 실무적용
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
델켐매거진5호
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
딥러닝 - 역사와 이론적 기초
Searching for magic formula by deep learning
1주차 - 자바 프로젝트_ Hidden layer과 Backpropagation.pdf
Deep learning application_to_manufacturing
Ad

Dl from scratch(8)

  • 2. 목차 • 정확도를 더 높이려면? • 층을 깊게 하는 이유 • 또다른 CNN 구조들
  • 3. 정확도를 높이려면? • 데이터 확장 입력 이미지(훈련 이미지)를 알고리즘을 동원해 ‘인위적’으로 확장한다. 데이터가 몇 개 없을 때 효과적이다. 회전, 이동, 자르기, 대칭 등이 있다.
  • 4. 층을 깊게 하는 이유 입력 출력 5x5
  • 5. 층을 깊게 하는 이유 입력 출력 3x3 3x3 중간
  • 6. 층을 깊게 하는 이유 • 5x5의 합성곱 연산 1회는 3x3 연산을 2회 수행하여 대체 가능함. • 5x5 합성곱 매개변수의 수는 25개 • 3x3 합성곱 매개변수의 수는 18개 (2x3x3) • 층을 깊게 함으로써 학습 데이터의 양을 줄여 고속화가 가능.
  • 8. VGG • 합성곱 계층과 풀링 계층으로 구성되는 ‘기본적’인 CNN • 3x3의 작은 필터를 사용한 합성곱 계층을 연속으로 거치는 것이 특징이다. • 2014년 대회에서 2위에 올랐음(1위 : GoogLeNet), 구성이 간단하여 응용하기 좋음
  • 9. GoogLeNet • 세로 방향 깊이뿐 아니라 가로 방향도 깊다는 점이 특징 • 가로 방향의 폭 : 인셉션 구조 • 인셉션 구조는 크기가 다른 필터를 여러 개 적용하여 그 결과를 결합한다. • 1x1 크기의 필터를 많은 곳에서 사용한다. (채널쪽 으로 크기를 줄임)
  • 10. ResNet • 층이 지나치게 깊으면 학습이 잘 되지 않고, 성능이 떨어지는 경우가 많다. • 해결책으로 스킵 연결(skip connection)을 도입했다. • 입력 데이터를 합성곱 계층을 건너 뛰어 출력에 바로 더하는 구조이다. • 역전파 때 스킵 연결이 신호 감쇠를 막아준다.