SlideShare a Scribd company logo
PRML復々習レーン#3
 前回までのあらすじ
    2012-07-16
  Yoshihiko Suhara
   @sleepy_yoshi

                     v.1.1
前回のおさらい
• 復々習レーンの復習を15分程度でやります
 – 得られた結論にポイントを絞る   ポイントだよ



 – 「よーするに」な内容


• 目的
 – 前回の復習
 – 不参加の方に流れを伝えるため
 – 自分自身の勉強のため

                             2
前回の範囲
• 2.3 ガウス分布
  –   2.3.1 条件付きガウス分布
  –   2.3.2 周辺ガウス分布
  –   2.3.3 ガウス変数に対するベイズの定理
  –   2.3.4 ガウス分布の最尤推定
  –   2.3.5 逐次推定
  –   2.3.6 ガウス分布に対するベイズ推論
  –   2.3.7 スチューデントのt分布
  –   2.3.8 周期変数
  –   2.3.9 混合ガウス分布
• 2.4 指数型分布族
  – 2.4.1 最尤推定と十分推定量
  – 2.4.2 共役事前分布              ここまで
  – 2.4.3 無情報事前分布

                                3
2.3 ガウス分布



            4
ポイントだよ
                        2.3 ガウス分布
       ガウス分布は全ての基本
平均パラメータ𝝁,共分散パラメータ𝚺 (精度𝚲 = 𝚺 −1 )の
  ガウス分布の確率密度関数は以下のとおり
                    1       1             1          𝑇 𝚺 −1
•     𝒩 𝑥 𝜇, Σ =        𝐷       1 exp −       𝒙− 𝝁            𝒙− 𝝁
                                          2
                   2𝜋   2   𝚺2
• 注意点
     – 単峰性であること
                            𝐷+1 𝐷
     – パラメータ数は                      + 𝐷個であるため,計算が困難
                             2
             • 共分散行列に制限を設ける (a: 一般,b: 対角, c: 等分散)




                                                                     5
ポイントだよ
         2.3.1 条件付きガウス分布
          𝑝 𝒙 𝑎 , 𝒙 𝑏 がガウス分布のとき,
         条件付き分布𝑝 𝒙 𝒂 |𝒙 𝑏 もガウス分布


                                   コレ




                                   6
ポイントだよ
         2.3.2 周辺ガウス分布
     𝑝 𝒙 𝑎 , 𝒙 𝑏 がガウス分布のとき,
  周辺分布𝑝 𝒙 𝒂 = 𝑝 𝒙 𝑎 , 𝒙 𝑏 d𝒙 𝑏 もガウス分布




                        コレ




                                        7
2.3.3 ガウス分布に対するベイズ推定
    ポイントだよ




      𝒙の周辺ガウス分布𝑝(𝒙)と条件付きガウス分布𝑝(𝒚|𝒙)が
              以下で与えられたとき
       𝒚の周辺分布と𝒙の条件付き分布は以下で表現できる
•    𝒙の周辺ガウス分布𝑝(𝒙)と条件付きガウス分布𝑝(𝒚|𝒙)
     – 𝑝 𝒙 = 𝒩 𝒙 𝝁, 𝚲−1
     – 𝑝 𝒚|𝒙 = 𝒩 𝒚 𝑨𝒙 + 𝒃, 𝑳−1

•    𝒚の周辺分布と𝒙の条件付き分布
     – 𝑝 𝒚 = 𝒩 𝒚 𝑨𝝁 + 𝒃, 𝑳−1 + 𝑨𝚲−1 𝑨 𝑇
     – 𝑝 𝒙 𝒚 = 𝒩 𝒙 𝚺 𝑨 𝑇 𝑳 𝒚 − 𝒃 + 𝑨𝝁 , 𝚺
     – ただし 𝚺 = 𝚲 + 𝑨 𝑇 𝑳𝑨 −1

• 同時確率 𝑝 𝒛 = 𝑝 𝒙 𝑝 𝒚 𝒙 = 𝑝 𝒚 𝑝 𝒙 𝒚

                                            8
2.3.4 ガウス分布の最尤推定
ポイントだよ




         平均と分散の最尤推定量は以下のとおり
          なお分散の最尤推定量 ≠ 不偏推定量

• 十分統計量
         𝑁               𝑁
 –       𝑛=1   𝒙𝑛と       𝑛=1   𝒙𝑛 𝒙𝑇
                                   𝑛


• 最尤推定量
                         1     𝑁
 – 平均: 𝝁ML =                   𝑛=1   𝒙𝑛
                          𝑁
                         1     𝑁                             𝑇
 – 分散: 𝚺        𝑀𝐿   =         𝑛=1   𝒙 𝑛 − 𝝁ML   𝒙 𝑛 − 𝝁ML
                         𝑁

                                                                 9
ポイントだよ
               2.3.5 逐次推定
データを逐次的に用いて分布のパラメータを推定する
 場合にはRobbins-Monroアルゴリズムを利用できる

• Robbins-Monroアルゴリズム
  – 𝑓 𝜃 ∗ = 0の根𝜃 ∗ を求めるアルゴリズム
              𝜃 𝑁 = 𝜃 𝑁−1 − 𝑎 𝑁−1 𝑧 𝜃 𝑁−1
• 最尤推定解は対数尤度関数の停留点
  – 最尤推定解を求めることは,回帰関数の根を求めることに相当
  – 他にも3.1.3の確率的勾配法でも利用



                                            10
2.3.6 ガウス分布に対するベイズ推論
 ポイントだよ




   ガウス分布における各パラメータの事後分布と
       共役事前分布は以下の通り

     事後分布          1変量          多変量
平均パラメータ(分散既知)    ガウス分布         ガウス分布
精度パラメータ(平均既知)    ガンマ分布        ウィシャート分布
分散パラメータ(平均既知)    逆ガンマ分布      逆ウィシャート分布
平均,精度パラメータ      ガウス―ガンマ分布   ガウス―ウィシャート分布


• パラメータの事後分布∝尤度×事前分布
• ベイズ推定で求めるのはパラメータの分布
                                           11
2.3.7 スチューデントのt分布
 ポイントだよ




      t分布は,平均は同じで精度が異なるような
        ガウス分布を無限個足し合わせたもの

• t分布の頑健性




          t分布     t分布 vs. ガウス分布

• 最尤推定解は解析的には求まらない (⇒ EM法)        12
ポイントだよ
                   2.3.8 周期変数
            周期性を持つ確率変数を扱う場合には
            極座標とフォン・ミーゼス分布を用いる
  • フォン・ミーゼス分布
                             1
             𝑝 𝜃 𝜃0 , 𝑚 =          exp 𝑚 cos 𝜃 − 𝜃0
                          2𝜋𝐼0 (𝑚)


                                                      Richard von Mises
                                                         (1883-1953)




赤の単位円で条件づけられた
2次元ガウス分布という解釈                                          Fritz Von13
                                                                 Erich
                         極座標                   直交座標     (1929-1997)
ポイントだよ
          2.3.9 混合ガウス分布
    単一のガウス分布では表現が難しい場合には
         混合ガウス分布を用いる




                   𝐾
• 混合ガウス分布: 𝑝 𝒙 =   𝑘=1   𝜋 𝑘 𝒩 𝒙 𝝁 𝑘, 𝚺 𝑘
• 対数尤度関数
  – 解析的には最尤解を求められることができないため,EMアル
    ゴリズムを用いる
                                            14
2.4 指数型分布族



             15
ポイントだよ
           2.4 指数型分布族
         これまでの話題を一般化するため,
         指数型分布族という単位で考える

• 指数型分布族の例
 – ベルヌーイ分布,多項分布,正規分布,ポアソン
   分布など

• 指数型分布族の一般形
         𝑝 𝒙 𝜼 = ℎ 𝒙 𝑔 𝜼 exp 𝜼 𝑇 𝒖 𝒙
                                       16
2.4.1 最尤推定量と十分統計量
ポイントだよ




      指数型分布族の関数形から
  最尤推定量と十分統計量を求めることができる

• 以下の式を解けば最尤推定量を得ることができる
                                 𝑁
                            1
         −𝛻 ln 𝑔 𝜼   𝑀𝐿   =           𝒖 𝒙𝑛
                            𝑁
                                𝑛=1      十分統計量




                                                 17
さぁ今日も一日
つづく    がんばるぞ




            18

More Related Content

PDF
PRML 上 2.3.6 ~ 2.5.2
PDF
Prml2.1 2.2,2.4-2.5
PDF
PRML 上 1.2.4 ~ 1.2.6
PDF
PRML2.1 2.2
PPTX
Prml 最尤推定からベイズ曲線フィッティング
PDF
PRML復々習レーン#2 2.3.6 - 2.3.7
PDF
ベイズ統計入門
PDF
混合モデルとEMアルゴリズム(PRML第9章)
PRML 上 2.3.6 ~ 2.5.2
Prml2.1 2.2,2.4-2.5
PRML 上 1.2.4 ~ 1.2.6
PRML2.1 2.2
Prml 最尤推定からベイズ曲線フィッティング
PRML復々習レーン#2 2.3.6 - 2.3.7
ベイズ統計入門
混合モデルとEMアルゴリズム(PRML第9章)

What's hot (20)

PDF
Prml 2.3
PDF
PRML2.3.8~2.5 Slides in charge
PDF
PRML 2.3.1-2.3.2
PDF
[PRML] パターン認識と機械学習(第2章:確率分布)
PPTX
PRML第9章「混合モデルとEM」
PPTX
PRML2.3.1-2.3.3
PDF
PRML chap.10 latter half
PDF
PRML復々習レーン#15 前回までのあらすじ
PDF
PRML 8.4-8.4.3
PPTX
PRML第6章「カーネル法」
PDF
MLaPP 5章 「ベイズ統計学」
PDF
PRML 2.3節
PDF
Bishop prml 9.3_wk77_100408-1504
PDF
PRML 6.4-6.5
PDF
変分推論法(変分ベイズ法)(PRML第10章)
PDF
PRML_titech 2.3.1 - 2.3.7
PDF
Stanでガウス過程
PDF
PRML輪読#2
PDF
Fisher線形判別分析とFisher Weight Maps
PDF
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
Prml 2.3
PRML2.3.8~2.5 Slides in charge
PRML 2.3.1-2.3.2
[PRML] パターン認識と機械学習(第2章:確率分布)
PRML第9章「混合モデルとEM」
PRML2.3.1-2.3.3
PRML chap.10 latter half
PRML復々習レーン#15 前回までのあらすじ
PRML 8.4-8.4.3
PRML第6章「カーネル法」
MLaPP 5章 「ベイズ統計学」
PRML 2.3節
Bishop prml 9.3_wk77_100408-1504
PRML 6.4-6.5
変分推論法(変分ベイズ法)(PRML第10章)
PRML_titech 2.3.1 - 2.3.7
Stanでガウス過程
PRML輪読#2
Fisher線形判別分析とFisher Weight Maps
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
Ad

Viewers also liked (9)

PDF
PRML 2.3節 - ガウス分布
PDF
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
PDF
PRML復々習レーン#3 3.1.3-3.1.5
PDF
PRML 1.6 情報理論
PPTX
クラシックな機械学習の入門  5. サポートベクターマシン
PDF
SMO徹底入門 - SVMをちゃんと実装する
PDF
PRML第3章@京大PRML輪講
PDF
SVM実践ガイド (A Practical Guide to Support Vector Classification)
PDF
正則化つき線形モデル(「入門機械学習第6章」より)
PRML 2.3節 - ガウス分布
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
PRML復々習レーン#3 3.1.3-3.1.5
PRML 1.6 情報理論
クラシックな機械学習の入門  5. サポートベクターマシン
SMO徹底入門 - SVMをちゃんと実装する
PRML第3章@京大PRML輪講
SVM実践ガイド (A Practical Guide to Support Vector Classification)
正則化つき線形モデル(「入門機械学習第6章」より)
Ad

Similar to PRML復々習レーン#3 前回までのあらすじ (20)

PPTX
色々な確率分布とその応用
PDF
PRML輪読#9
PDF
あなたの心にBridgeSampling
PDF
MLaPP 4章 「ガウシアンモデル」
PDF
Prml 10 1
PPTX
WAICとWBICのご紹介
PDF
Prml1.2.4
PDF
Prml 2_3_8
PPTX
ベイズ統計学の概論的紹介
PPTX
基礎からのベイズ統計学 3章(3.1~3.3)
PPTX
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
PPTX
ベイズ統計学の概論的紹介-old
PPTX
Prml 1.3~1.6 ver3
PDF
第4回スキル養成講座 講義スライド
PDF
確率的自己位置推定
PDF
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PDF
階層モデルの分散パラメータの事前分布について
PDF
研究室内PRML勉強会 11章2-4節
PDF
統計学第三回
色々な確率分布とその応用
PRML輪読#9
あなたの心にBridgeSampling
MLaPP 4章 「ガウシアンモデル」
Prml 10 1
WAICとWBICのご紹介
Prml1.2.4
Prml 2_3_8
ベイズ統計学の概論的紹介
基礎からのベイズ統計学 3章(3.1~3.3)
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
ベイズ統計学の概論的紹介-old
Prml 1.3~1.6 ver3
第4回スキル養成講座 講義スライド
確率的自己位置推定
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
階層モデルの分散パラメータの事前分布について
研究室内PRML勉強会 11章2-4節
統計学第三回

More from sleepy_yoshi (20)

PDF
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
PDF
KDD2013読み会: Direct Optimization of Ranking Measures
PDF
PRML復々習レーン#14 前回までのあらすじ
PDF
PRML復々習レーン#13 前回までのあらすじ
PDF
PRML復々習レーン#12 前回までのあらすじ
PDF
ICML2013読み会: Distributed training of Large-scale Logistic models
PDF
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
PDF
計算論的学習理論入門 -PAC学習とかVC次元とか-
PDF
PRML復々習レーン#11 前回までのあらすじ
PDF
PRML復々習レーン#10 前回までのあらすじ
PDF
PRML復々習レーン#10 7.1.3-7.1.5
PDF
PRML復々習レーン#9 6.3-6.3.1
PDF
PRML復々習レーン#9 前回までのあらすじ
PDF
PRML復々習レーン#7 前回までのあらすじ
PDF
SIGIR2012勉強会 23 Learning to Rank
PDF
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
PDF
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
PDF
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
PDF
SIGIR2011読み会 3. Learning to Rank
PDF
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2013読み会: Direct Optimization of Ranking Measures
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
ICML2013読み会: Distributed training of Large-scale Logistic models
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
計算論的学習理論入門 -PAC学習とかVC次元とか-
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
SIGIR2012勉強会 23 Learning to Rank
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
SIGIR2011読み会 3. Learning to Rank
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++

PRML復々習レーン#3 前回までのあらすじ

  • 1. PRML復々習レーン#3 前回までのあらすじ 2012-07-16 Yoshihiko Suhara @sleepy_yoshi v.1.1
  • 2. 前回のおさらい • 復々習レーンの復習を15分程度でやります – 得られた結論にポイントを絞る ポイントだよ – 「よーするに」な内容 • 目的 – 前回の復習 – 不参加の方に流れを伝えるため – 自分自身の勉強のため 2
  • 3. 前回の範囲 • 2.3 ガウス分布 – 2.3.1 条件付きガウス分布 – 2.3.2 周辺ガウス分布 – 2.3.3 ガウス変数に対するベイズの定理 – 2.3.4 ガウス分布の最尤推定 – 2.3.5 逐次推定 – 2.3.6 ガウス分布に対するベイズ推論 – 2.3.7 スチューデントのt分布 – 2.3.8 周期変数 – 2.3.9 混合ガウス分布 • 2.4 指数型分布族 – 2.4.1 最尤推定と十分推定量 – 2.4.2 共役事前分布 ここまで – 2.4.3 無情報事前分布 3
  • 5. ポイントだよ 2.3 ガウス分布 ガウス分布は全ての基本 平均パラメータ𝝁,共分散パラメータ𝚺 (精度𝚲 = 𝚺 −1 )の ガウス分布の確率密度関数は以下のとおり 1 1 1 𝑇 𝚺 −1 • 𝒩 𝑥 𝜇, Σ = 𝐷 1 exp − 𝒙− 𝝁 𝒙− 𝝁 2 2𝜋 2 𝚺2 • 注意点 – 単峰性であること 𝐷+1 𝐷 – パラメータ数は + 𝐷個であるため,計算が困難 2 • 共分散行列に制限を設ける (a: 一般,b: 対角, c: 等分散) 5
  • 6. ポイントだよ 2.3.1 条件付きガウス分布 𝑝 𝒙 𝑎 , 𝒙 𝑏 がガウス分布のとき, 条件付き分布𝑝 𝒙 𝒂 |𝒙 𝑏 もガウス分布 コレ 6
  • 7. ポイントだよ 2.3.2 周辺ガウス分布 𝑝 𝒙 𝑎 , 𝒙 𝑏 がガウス分布のとき, 周辺分布𝑝 𝒙 𝒂 = 𝑝 𝒙 𝑎 , 𝒙 𝑏 d𝒙 𝑏 もガウス分布 コレ 7
  • 8. 2.3.3 ガウス分布に対するベイズ推定 ポイントだよ 𝒙の周辺ガウス分布𝑝(𝒙)と条件付きガウス分布𝑝(𝒚|𝒙)が 以下で与えられたとき 𝒚の周辺分布と𝒙の条件付き分布は以下で表現できる • 𝒙の周辺ガウス分布𝑝(𝒙)と条件付きガウス分布𝑝(𝒚|𝒙) – 𝑝 𝒙 = 𝒩 𝒙 𝝁, 𝚲−1 – 𝑝 𝒚|𝒙 = 𝒩 𝒚 𝑨𝒙 + 𝒃, 𝑳−1 • 𝒚の周辺分布と𝒙の条件付き分布 – 𝑝 𝒚 = 𝒩 𝒚 𝑨𝝁 + 𝒃, 𝑳−1 + 𝑨𝚲−1 𝑨 𝑇 – 𝑝 𝒙 𝒚 = 𝒩 𝒙 𝚺 𝑨 𝑇 𝑳 𝒚 − 𝒃 + 𝑨𝝁 , 𝚺 – ただし 𝚺 = 𝚲 + 𝑨 𝑇 𝑳𝑨 −1 • 同時確率 𝑝 𝒛 = 𝑝 𝒙 𝑝 𝒚 𝒙 = 𝑝 𝒚 𝑝 𝒙 𝒚 8
  • 9. 2.3.4 ガウス分布の最尤推定 ポイントだよ 平均と分散の最尤推定量は以下のとおり なお分散の最尤推定量 ≠ 不偏推定量 • 十分統計量 𝑁 𝑁 – 𝑛=1 𝒙𝑛と 𝑛=1 𝒙𝑛 𝒙𝑇 𝑛 • 最尤推定量 1 𝑁 – 平均: 𝝁ML = 𝑛=1 𝒙𝑛 𝑁 1 𝑁 𝑇 – 分散: 𝚺 𝑀𝐿 = 𝑛=1 𝒙 𝑛 − 𝝁ML 𝒙 𝑛 − 𝝁ML 𝑁 9
  • 10. ポイントだよ 2.3.5 逐次推定 データを逐次的に用いて分布のパラメータを推定する 場合にはRobbins-Monroアルゴリズムを利用できる • Robbins-Monroアルゴリズム – 𝑓 𝜃 ∗ = 0の根𝜃 ∗ を求めるアルゴリズム 𝜃 𝑁 = 𝜃 𝑁−1 − 𝑎 𝑁−1 𝑧 𝜃 𝑁−1 • 最尤推定解は対数尤度関数の停留点 – 最尤推定解を求めることは,回帰関数の根を求めることに相当 – 他にも3.1.3の確率的勾配法でも利用 10
  • 11. 2.3.6 ガウス分布に対するベイズ推論 ポイントだよ ガウス分布における各パラメータの事後分布と 共役事前分布は以下の通り 事後分布 1変量 多変量 平均パラメータ(分散既知) ガウス分布 ガウス分布 精度パラメータ(平均既知) ガンマ分布 ウィシャート分布 分散パラメータ(平均既知) 逆ガンマ分布 逆ウィシャート分布 平均,精度パラメータ ガウス―ガンマ分布 ガウス―ウィシャート分布 • パラメータの事後分布∝尤度×事前分布 • ベイズ推定で求めるのはパラメータの分布 11
  • 12. 2.3.7 スチューデントのt分布 ポイントだよ t分布は,平均は同じで精度が異なるような ガウス分布を無限個足し合わせたもの • t分布の頑健性 t分布 t分布 vs. ガウス分布 • 最尤推定解は解析的には求まらない (⇒ EM法) 12
  • 13. ポイントだよ 2.3.8 周期変数 周期性を持つ確率変数を扱う場合には 極座標とフォン・ミーゼス分布を用いる • フォン・ミーゼス分布 1 𝑝 𝜃 𝜃0 , 𝑚 = exp 𝑚 cos 𝜃 − 𝜃0 2𝜋𝐼0 (𝑚) Richard von Mises (1883-1953) 赤の単位円で条件づけられた 2次元ガウス分布という解釈 Fritz Von13 Erich 極座標 直交座標 (1929-1997)
  • 14. ポイントだよ 2.3.9 混合ガウス分布 単一のガウス分布では表現が難しい場合には 混合ガウス分布を用いる 𝐾 • 混合ガウス分布: 𝑝 𝒙 = 𝑘=1 𝜋 𝑘 𝒩 𝒙 𝝁 𝑘, 𝚺 𝑘 • 対数尤度関数 – 解析的には最尤解を求められることができないため,EMアル ゴリズムを用いる 14
  • 16. ポイントだよ 2.4 指数型分布族 これまでの話題を一般化するため, 指数型分布族という単位で考える • 指数型分布族の例 – ベルヌーイ分布,多項分布,正規分布,ポアソン 分布など • 指数型分布族の一般形 𝑝 𝒙 𝜼 = ℎ 𝒙 𝑔 𝜼 exp 𝜼 𝑇 𝒖 𝒙 16
  • 17. 2.4.1 最尤推定量と十分統計量 ポイントだよ 指数型分布族の関数形から 最尤推定量と十分統計量を求めることができる • 以下の式を解けば最尤推定量を得ることができる 𝑁 1 −𝛻 ln 𝑔 𝜼 𝑀𝐿 = 𝒖 𝒙𝑛 𝑁 𝑛=1 十分統計量 17
  • 18. さぁ今日も一日 つづく がんばるぞ 18