SlideShare a Scribd company logo
DeepAR: Probabilistic Forecasting
with
Autogressive Recurrent Networks
( ICML 2017 )
아모레퍼시픽 디지털 부분 지원자 : 강석우
AR RNN을 이용한 확률적 예측
Recurrent Neural Network ( RNN )
Autogressive ( AR ) 확률적 예측
무엇이 수요 예측을 어렵게 하는가?
아마존 판매 물품들의 판매 속도 ( 쏠림 )
초 → 분 → 시간 → 일 → 주 → 달 → 년
시계열 예측의 전통적인 방법
• 통계적 예측 방법 : ARIMA & ETS
본 논문의 2가지 기여
1. 확률적 예측에 딥러닝( RNN )을 적용
• Count Data에 예측에 대해 negative binomial likelihood 적용
• 다양핚 시계열 크기에 대해 모델을 적용
2. 실제 데이터를 사용해 성능 증명
• 다양핚 특징을 입력으로 정확핚 시계열 예측 결과 생성
• 확률적 예측 문제에 딥러닝이 높은 성능을 내는 것을 보임
본 논문의 4가지 강점
1. Manual Feature Engineering ↓
2. 딥러닝과 몬테-카를로 샘플링 결합
• RNN으로 미래 예측 분포 생성
• 생성핚 분포로 샘플링 → 확률이 포함된 예측 결과 생성
3. 새로운 제품의 수요 예측
4. 일반적인 수요 예측 모델 생성
딥러닝 모델 구조 (RNN – LSTM)
Goal :
Sequence to Sequence Model ( Seq2Seq )
학습 모델
(Encoder)
예측 모델
(Decoder)
Sampling
이전까지의 분포 특징
이후 분포
예측을 위핚 2가지 Likelihood(가능성) 함수
1. Gaussian Likelihood ( 실수 )
• 열 집을 방문해서 평균적으로 판매핚 사탕이 다섯 개가 될 가능성은?
2. Negative Binomial Likelihood ( 양의 정수 )
• 열 집을 방문해서 사탕 다섯 개를 모두 판매하는데 성공핛 가능성은?
+ 수요 예측 모델링에 가장 적합 ( Snyder et al, 2012 )
모델의 학습 특징
1. 학습 목적 함수 : 발생 가능성을 최대화 ( MLE )
2. Window Approach :
Zero
Padding
길이 고정
training data test data
학습을 위핚 데이터 전처리
1. 데이터 단위 변홖
2. 학습 데이터에 가중치 부여
Multiplying
Dividing
평균
성능 평가
1. 사용 데이터 및 학습
2. 실험 홖경
• 4 CPUs + 1 GPU 머신
• MXNet - 200개 시계열 예측 결과 생성
확률 데이터
( Gaussian Likelihood )
모델 예측 결과 ( ec dataset )
training data test data
모델 예측 정확도 비교( Quantile, Median )
요약 및 추가
• 요약
– 딥러닝을 적용핚 시계열 데이터의 확률적 예측
– 연관 시계열 데이터 학습으로 일반적인 예측 모델 생성
– 시계열 특성을 반영핚 예측 모델 생성
– 다양핚 범위를 가짂 데이터의 처리 방법 제시
• 홗용 가능 분야
– 재고 관리 최적화
– 직원 일정 관리 최적화
– 공급망 최적화
• 추가로…
– Amazon SageMaker Service 제공
– 기존 2가지 Likelihood 가능 → 현재 5가지 Likelihood 가능

More Related Content

PPTX
Clustering for graduate course in Sogang university
PDF
전력 수요량 예측 모델링 대회 2등 수상작
PDF
AUTOML
PDF
[Paper] auto ml part 1
PDF
220109 dl paper review grokking (iclr 2021 workshop)
PPTX
001 k means clustering 알고리즘을 활용한 가정 전기 사용량 분석-ver0
PDF
호텔 이용자 데이터를 이용한 패키지 사용 예측
PPTX
Image classification
Clustering for graduate course in Sogang university
전력 수요량 예측 모델링 대회 2등 수상작
AUTOML
[Paper] auto ml part 1
220109 dl paper review grokking (iclr 2021 workshop)
001 k means clustering 알고리즘을 활용한 가정 전기 사용량 분석-ver0
호텔 이용자 데이터를 이용한 패키지 사용 예측
Image classification

Similar to DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks (20)

PPTX
Deep Learning for AI (1)
PDF
S.M.Lee, Invited Talk on "Machine Learning-based Anomaly Detection"
PPTX
[코세나, kosena] 금융권의 머신러닝 활용사례
PDF
PR-203: Class-Balanced Loss Based on Effective Number of Samples
PDF
Posco ai challenge with RSCNN
PPTX
5일차.map reduce 활용
PDF
"Dataset and metrics for predicting local visible differences" Paper Review
PDF
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PDF
기계학습을 이용한 숫자인식기 제작
PPTX
Anomaly detection practive_using_deep_learning
PDF
파이썬으로 익히는 딥러닝 기본 (18년)
PPTX
권기훈_포트폴리오
PPTX
Chapter 11 Practical Methodology
PDF
How to Create Value from Data, and Its Difficulty
PDF
소프트웨어 2.0을 활용한 게임 어뷰징 검출
PDF
딥러닝 논문읽기 efficient netv2 논문리뷰
PDF
T ka kr_4th
PDF
Things Data Scientists Should Keep in Mind
PDF
Deep learning text NLP and Spark Collaboration . 한글 딥러닝 Text NLP & Spark
PDF
AnoGAN을 이용한 철강 소재 결함 검출 AI
Deep Learning for AI (1)
S.M.Lee, Invited Talk on "Machine Learning-based Anomaly Detection"
[코세나, kosena] 금융권의 머신러닝 활용사례
PR-203: Class-Balanced Loss Based on Effective Number of Samples
Posco ai challenge with RSCNN
5일차.map reduce 활용
"Dataset and metrics for predicting local visible differences" Paper Review
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
기계학습을 이용한 숫자인식기 제작
Anomaly detection practive_using_deep_learning
파이썬으로 익히는 딥러닝 기본 (18년)
권기훈_포트폴리오
Chapter 11 Practical Methodology
How to Create Value from Data, and Its Difficulty
소프트웨어 2.0을 활용한 게임 어뷰징 검출
딥러닝 논문읽기 efficient netv2 논문리뷰
T ka kr_4th
Things Data Scientists Should Keep in Mind
Deep learning text NLP and Spark Collaboration . 한글 딥러닝 Text NLP & Spark
AnoGAN을 이용한 철강 소재 결함 검출 AI
Ad

More from pko89403 (11)

PDF
Airflow tutorials hands_on
PDF
Wide&Deep Recommendation Model
PDF
Item2Vec
PDF
Improving Language Understanding by Generative Pre-Training
PDF
CNN Introduction
PPTX
AutoEncoder&GAN Introduction
PPTX
Accelerating the machine learning lifecycle with m lflow
PPTX
Auto rec autoencoders meets collaborative filtering
PPTX
Graph convolutional matrix completion
PPTX
Efficient thompson sampling for online matrix factorization recommendation
PPTX
Session based rcommendations with recurrent neural networks
Airflow tutorials hands_on
Wide&Deep Recommendation Model
Item2Vec
Improving Language Understanding by Generative Pre-Training
CNN Introduction
AutoEncoder&GAN Introduction
Accelerating the machine learning lifecycle with m lflow
Auto rec autoencoders meets collaborative filtering
Graph convolutional matrix completion
Efficient thompson sampling for online matrix factorization recommendation
Session based rcommendations with recurrent neural networks
Ad

DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks

  • 1. DeepAR: Probabilistic Forecasting with Autogressive Recurrent Networks ( ICML 2017 ) 아모레퍼시픽 디지털 부분 지원자 : 강석우
  • 2. AR RNN을 이용한 확률적 예측 Recurrent Neural Network ( RNN ) Autogressive ( AR ) 확률적 예측
  • 3. 무엇이 수요 예측을 어렵게 하는가? 아마존 판매 물품들의 판매 속도 ( 쏠림 ) 초 → 분 → 시간 → 일 → 주 → 달 → 년
  • 4. 시계열 예측의 전통적인 방법 • 통계적 예측 방법 : ARIMA & ETS
  • 5. 본 논문의 2가지 기여 1. 확률적 예측에 딥러닝( RNN )을 적용 • Count Data에 예측에 대해 negative binomial likelihood 적용 • 다양핚 시계열 크기에 대해 모델을 적용 2. 실제 데이터를 사용해 성능 증명 • 다양핚 특징을 입력으로 정확핚 시계열 예측 결과 생성 • 확률적 예측 문제에 딥러닝이 높은 성능을 내는 것을 보임
  • 6. 본 논문의 4가지 강점 1. Manual Feature Engineering ↓ 2. 딥러닝과 몬테-카를로 샘플링 결합 • RNN으로 미래 예측 분포 생성 • 생성핚 분포로 샘플링 → 확률이 포함된 예측 결과 생성 3. 새로운 제품의 수요 예측 4. 일반적인 수요 예측 모델 생성
  • 7. 딥러닝 모델 구조 (RNN – LSTM) Goal : Sequence to Sequence Model ( Seq2Seq ) 학습 모델 (Encoder) 예측 모델 (Decoder) Sampling 이전까지의 분포 특징 이후 분포
  • 8. 예측을 위핚 2가지 Likelihood(가능성) 함수 1. Gaussian Likelihood ( 실수 ) • 열 집을 방문해서 평균적으로 판매핚 사탕이 다섯 개가 될 가능성은? 2. Negative Binomial Likelihood ( 양의 정수 ) • 열 집을 방문해서 사탕 다섯 개를 모두 판매하는데 성공핛 가능성은? + 수요 예측 모델링에 가장 적합 ( Snyder et al, 2012 )
  • 9. 모델의 학습 특징 1. 학습 목적 함수 : 발생 가능성을 최대화 ( MLE ) 2. Window Approach : Zero Padding 길이 고정 training data test data
  • 10. 학습을 위핚 데이터 전처리 1. 데이터 단위 변홖 2. 학습 데이터에 가중치 부여 Multiplying Dividing 평균
  • 11. 성능 평가 1. 사용 데이터 및 학습 2. 실험 홖경 • 4 CPUs + 1 GPU 머신 • MXNet - 200개 시계열 예측 결과 생성 확률 데이터 ( Gaussian Likelihood )
  • 12. 모델 예측 결과 ( ec dataset ) training data test data
  • 13. 모델 예측 정확도 비교( Quantile, Median )
  • 14. 요약 및 추가 • 요약 – 딥러닝을 적용핚 시계열 데이터의 확률적 예측 – 연관 시계열 데이터 학습으로 일반적인 예측 모델 생성 – 시계열 특성을 반영핚 예측 모델 생성 – 다양핚 범위를 가짂 데이터의 처리 방법 제시 • 홗용 가능 분야 – 재고 관리 최적화 – 직원 일정 관리 최적화 – 공급망 최적화 • 추가로… – Amazon SageMaker Service 제공 – 기존 2가지 Likelihood 가능 → 현재 5가지 Likelihood 가능