SlideShare a Scribd company logo
4. Gaussian Model
4.1 Introduction
4.2 Gaussian discriminant analysis
4.2.1 Quadratic discriminant analysis (QDA)
4.2.2 Linear discriminant analysis (LDA)
4.2.3 Two-class LDA
4.2.4 MLE for discriminant analysis
4.1 Introduction
다변량 정규 분포에 대한 장
4. Gaussian Model
4.2 Gaussian discriminant analysis
Class가 주어졌을 때, feature vector는 Gaussian 분포라는 가정이 주어진다
                                     
(Gaussian) discriminant analysis: posterior
                              
(2.13) //p(x|y)는 정규분포
        예를 들어 2-class 문제의 경우
        
                      
판별하는데 필요한 μc,Σc 는 MLE 추정으로 구한다(섹션 4.2.4), 즉 각 클래스마다 샘플 평균, 샘플 공분산
     예를 들어 2-class의 경우, 데이터의 likelihood는 
     
     
                 파라메터 추정치는 
                  
Decision Rule: class 분류에 상관없는 분모는 지우고 log를 취해서 가장 큰 posterior를 갖는 class로 분류
                              
모든 class가 균일한 prior 분포를 가졌다면, 위의 수식에서 첫번째 prior항은 없어지고 두번째 항에 정규 분포 수식을 대입
                               
4.2.1 Quadratic discriminant analysis (QDA)
식 (2.13)에 likelihood와 prior에 각각 multinomial 분포식과 정규 분포식을 대입하면
          
(4.33)
위의 식을 class를 결정하는 x에 대한 함수로 본다면(p(y=1|x) - p(y=0|x) > 0 이면 y=1과 같은) 이차식(quadratic)의 형태이고 분류
평면(p(y=1|x) = p(y=0|x)인 지점)도 다음과 같이 곡선이 나오게 된다
                                        
4.2.2 Linear discriminant analysis (LDA)
모든 class에 대해서 공분산을 공유한다면(또는 같다면)
즉 
이라면
(4.33)은 다음과 같이 된다.
이차 항 xT
Σ-1
x은 모든 class에 대해서 동일하므로 분류에 영향을 끼치지 않기 때문에 사라지고, decision boundary는 linear해 진다.
라고 두면 식(4.35)는 다음과 같이 쓸 수 있고
(4.38)
이러한 모양의 함수는 soft한 max함수처럼 작용하기 때문에 S는 softmax 함수라고 불린다. 
예를 들어 η = (3,0,1)이라면 다음과 같이 최대값인 3에 대해서 0.8정도의 확률이 할당된다
4.2.3 Two-class LDA
2-class 문제를 가정하고 식 (4.38)에 log를 취해서 다음과 같이 linear한 평면을 유도할 수 있다.
βc'- βc항이 분류 평면의 법선 벡터가 되고 γc'- γc항이 분류 평면의 bias가 된다.
4.2.4 MLE for discriminant analysis
수식 (4.35)의 mu와 sigma는 다음과 같이 MLE로 추정할 수 있고 결과는 다음과 같다
즉, 각 class에 대해서 feature vector들의 평균과 분산이다.
즉, 각 class에 대해서 feature vector들의 평균과 분산이다.

More Related Content

PPTX
머피의 머신러닝 : Gaussian Processes
PPTX
머피's 머신러닝, Mixture model and EM algorithm
PPTX
패턴 인식 2 classifiers based on bayes decision theory part 1
PPTX
패턴인식-베이즈결정이론기반 분류기 part1
PPTX
07. PCA
PDF
PRML Chapter 7 SVM supplementary files
PDF
데이터처리와 통계 기본 머신러닝
PDF
소재데이터 AI 실습 최종보고서_ks0014_김영기.pdf
머피의 머신러닝 : Gaussian Processes
머피's 머신러닝, Mixture model and EM algorithm
패턴 인식 2 classifiers based on bayes decision theory part 1
패턴인식-베이즈결정이론기반 분류기 part1
07. PCA
PRML Chapter 7 SVM supplementary files
데이터처리와 통계 기본 머신러닝
소재데이터 AI 실습 최종보고서_ks0014_김영기.pdf

Similar to 4. Gaussian Model (20)

PDF
RUCK 2017 빅데이터 분석에서 모형의 역할
PDF
11_통계 자료분석 입문
PPTX
패턴인식과 기계학습-패턴인식기개발
PDF
Gmm to vgmm
PPTX
머피's 머신러닝: Latent Linear Model
PPT
122
PDF
RUCK 2017 베이즈 모형의 꽃 - 계층 모형
PDF
3 Generative models for discrete data
PDF
차원축소 훑어보기 (PCA, SVD, NMF)
PDF
Support Vector Machine Tutorial 한국어
PDF
04. logistic regression ( 로지스틱 회귀 )
PDF
From maching learning to deep learning episode2
PDF
R_datamining
PDF
세월호/ 타이타닉호 사고의 빅 데이터 방법론적 분석
PDF
내가 이해하는 SVM(왜, 어떻게를 중심으로)
PPTX
[Ankus Open Source Conference 2013] 빅데이터 분석을 위한 통계 이해와 해석
PDF
Rdatamining
PPTX
Variational inference intro. (korean ver.)
PDF
R을 이용한 데이터 분석
PDF
데이터분석과통계2 - 최재걸님
RUCK 2017 빅데이터 분석에서 모형의 역할
11_통계 자료분석 입문
패턴인식과 기계학습-패턴인식기개발
Gmm to vgmm
머피's 머신러닝: Latent Linear Model
122
RUCK 2017 베이즈 모형의 꽃 - 계층 모형
3 Generative models for discrete data
차원축소 훑어보기 (PCA, SVD, NMF)
Support Vector Machine Tutorial 한국어
04. logistic regression ( 로지스틱 회귀 )
From maching learning to deep learning episode2
R_datamining
세월호/ 타이타닉호 사고의 빅 데이터 방법론적 분석
내가 이해하는 SVM(왜, 어떻게를 중심으로)
[Ankus Open Source Conference 2013] 빅데이터 분석을 위한 통계 이해와 해석
Rdatamining
Variational inference intro. (korean ver.)
R을 이용한 데이터 분석
데이터분석과통계2 - 최재걸님
Ad

More from Jungkyu Lee (18)

PDF
8. Logistic Regression
PDF
7. Linear Regression
PPTX
From A Neural Probalistic Language Model to Word2vec
PPTX
머피의 머신러닝: 17장 Markov Chain and HMM
PPTX
Murpy's Machine Learing: 10. Directed Graphical Model
PPTX
Murpy's Machine Learning 9. Generalize Linear Model
PPTX
Murpy's Machine Learning:14. Kernel
PPTX
머피의 머신러닝 13 Sparse Linear Model
PDF
머피의 머신러닝: Undirencted Graphical Model
PPTX
머피's 머신러닝: Latent Linear Model
PPTX
파이널 판타지 3 루트 공략
PDF
1. boolean 검색
PDF
ThinkBayes: chapter 13  simulation
PDF
ThinkBayes: Chapter 9 two_dimensions
PDF
Jensen's inequality, EM 알고리즘
PDF
앙상블 학습 기반의 추천시스템 개발
PPTX
TETRIS AI WITH REINFORCEMENT LEARNING
PDF
Eigenvalues of regular graphs
8. Logistic Regression
7. Linear Regression
From A Neural Probalistic Language Model to Word2vec
머피의 머신러닝: 17장 Markov Chain and HMM
Murpy's Machine Learing: 10. Directed Graphical Model
Murpy's Machine Learning 9. Generalize Linear Model
Murpy's Machine Learning:14. Kernel
머피의 머신러닝 13 Sparse Linear Model
머피의 머신러닝: Undirencted Graphical Model
머피's 머신러닝: Latent Linear Model
파이널 판타지 3 루트 공략
1. boolean 검색
ThinkBayes: chapter 13  simulation
ThinkBayes: Chapter 9 two_dimensions
Jensen's inequality, EM 알고리즘
앙상블 학습 기반의 추천시스템 개발
TETRIS AI WITH REINFORCEMENT LEARNING
Eigenvalues of regular graphs
Ad

4. Gaussian Model

  • 1. 4. Gaussian Model 4.1 Introduction 4.2 Gaussian discriminant analysis 4.2.1 Quadratic discriminant analysis (QDA) 4.2.2 Linear discriminant analysis (LDA) 4.2.3 Two-class LDA 4.2.4 MLE for discriminant analysis 4.1 Introduction 다변량 정규 분포에 대한 장
  • 3. 4.2 Gaussian discriminant analysis Class가 주어졌을 때, feature vector는 Gaussian 분포라는 가정이 주어진다                                       (Gaussian) discriminant analysis: posterior                                (2.13) //p(x|y)는 정규분포         예를 들어 2-class 문제의 경우                                 판별하는데 필요한 μc,Σc 는 MLE 추정으로 구한다(섹션 4.2.4), 즉 각 클래스마다 샘플 평균, 샘플 공분산      예를 들어 2-class의 경우, 데이터의 likelihood는       
  • 4.                        파라메터 추정치는                     Decision Rule: class 분류에 상관없는 분모는 지우고 log를 취해서 가장 큰 posterior를 갖는 class로 분류                                모든 class가 균일한 prior 분포를 가졌다면, 위의 수식에서 첫번째 prior항은 없어지고 두번째 항에 정규 분포 수식을 대입                                 4.2.1 Quadratic discriminant analysis (QDA) 식 (2.13)에 likelihood와 prior에 각각 multinomial 분포식과 정규 분포식을 대입하면            (4.33) 위의 식을 class를 결정하는 x에 대한 함수로 본다면(p(y=1|x) - p(y=0|x) > 0 이면 y=1과 같은) 이차식(quadratic)의 형태이고 분류 평면(p(y=1|x) = p(y=0|x)인 지점)도 다음과 같이 곡선이 나오게 된다                                         
  • 5. 4.2.2 Linear discriminant analysis (LDA) 모든 class에 대해서 공분산을 공유한다면(또는 같다면) 즉  이라면 (4.33)은 다음과 같이 된다. 이차 항 xT Σ-1 x은 모든 class에 대해서 동일하므로 분류에 영향을 끼치지 않기 때문에 사라지고, decision boundary는 linear해 진다. 라고 두면 식(4.35)는 다음과 같이 쓸 수 있고 (4.38) 이러한 모양의 함수는 soft한 max함수처럼 작용하기 때문에 S는 softmax 함수라고 불린다.  예를 들어 η = (3,0,1)이라면 다음과 같이 최대값인 3에 대해서 0.8정도의 확률이 할당된다
  • 6. 4.2.3 Two-class LDA 2-class 문제를 가정하고 식 (4.38)에 log를 취해서 다음과 같이 linear한 평면을 유도할 수 있다. βc'- βc항이 분류 평면의 법선 벡터가 되고 γc'- γc항이 분류 평면의 bias가 된다. 4.2.4 MLE for discriminant analysis 수식 (4.35)의 mu와 sigma는 다음과 같이 MLE로 추정할 수 있고 결과는 다음과 같다 즉, 각 class에 대해서 feature vector들의 평균과 분산이다.
  • 7. 즉, 각 class에 대해서 feature vector들의 평균과 분산이다.