第3巻 第6章 大規模確率場と確率的画像処理の深化と展開   2011.11.07




       CV勉強会@関東(第17回)
       1. はじめに
       2. 画像生成モデルと大規模確率場

                 shirasy




                                      1
第3巻 第6章 大規模確率場と確率的画像処理の深化と展開




1. はじめに

2. 画像生成モデルと大規模確率場

3. ノイズ生成モデルとベイズ推定

4. 確率伝搬法

5. 情報統計力学と統計的性能評価

6. 統計的機械学習理論を用いた確率的画像処理

7. おわりに


                               2
1. はじめに

確率的画像処理


仮定: 生成モデルは、空間的にある種の統計的性質を持つ
    確率モデルである

画像生成モデル and 確率モデルの統計量を計算


生成される画像はランダムネスを伴う        複雑に混在する画像が生成
 • 仮定した統計的性質が強く反映される部分
 • 必ずしもそう言えない部分

                                    3
1. はじめに

確率的画像処理
  ランダムネスを伴う統計的性質を系統的に制御する鍵
  問題点:
   計算の複雑さ
  解決アプローチ:
   確率伝搬法

  人工知能/画像生成モデル
                 情報統計力学
  物理モデル




                             4
1. はじめに

本章では・・・

<前半>                 原信号をデータから推定する問題

確率的画像処理について説明
用途例:
  ノイズ除去
  ・ データ :ノイズ(観測信号)
  ・ 原信号:元の画像
   ① 元の画像の統計的性質とランダムネスを伴うノイズ確率
     を用いて表す
   ② データが与えられた時、そのデータを生成した画像に元々、
     どのような画像であったかを表す確率を導く
          ベイズ推定を実施                5
1. はじめに

本章では・・・

ベイズ推定
① 事前確率
  元の画像の統計的性質を表す確率

② 事後確率
  データが与えられた時、そのデータを生成した画像に元々、
  どのような画像であったかを表す確率




                                6
1. はじめに

本章では・・・

<後半>
確率的画像処理の最近動向
     統計的機械学習理論
      ① 接近法(1)
      ② 接近法(2):応用例




                     7
2. 画像生成モデルと大規模確率場

用語の定義

v 個の画素が正方格子上に並べられている場合を想定
v = { ,2,L , v }
    1

輝度値 : 画素の点の光の強度を表す

         暗    0, 1, 2, ・・・・・・・・・・・・・・   Q −1 明
         例)    Q = 2 (2階調画像)の場合
               Q = 0: 黒
               Q =1: 白


                                                 8
2. 画像生成モデルと大規模確率場

用語の定義
                    1   2    3    4



                    5   6    7    8



                    9   10   11   12

輝度値の集合
 Q=0
画素の集合
 v = { ,2, L ,12}
      1
                                       9
2. 画像生成モデルと大規模確率場

用語の定義
                1               2
                        {1,2}       {2,3} 3 {3,4} 4
                    {1,5}        {2,6}     {3,7}   {4,8}
                5               6              7              8
                       {5,6}         {6,7}     {7,8}
                    {5,9}        {6,10}    {7,11}              {8,12}
                9               10             11             12
                       {9,10}        {10,11}        {11,12}

隣接画素対の集合
    { ,2}, {2,3}, {3,4}, {5,6}, {6,7}, {7,8}, {9,10}, { ,11}, { ,12},
      1                                                 10      11
 ε =                                                                 
    { ,5}, {2,6}, {3,7}, {4,8}, {5,9}, {6,10}, {7,11}, {8,12}
      1                                                               
                                                                     10
2. 画像生成モデルと大規模確率場

用語の定義
                   1               2
                           {1,2}       {2,3} 3 {3,4} 4
                       {1,5}        {2,6}     {3,7}   {4,8}
                   5               6              7              8
                         {5,6}          {6,7}     {7,8}
                      {5,9}         {6,10}    {7,11}              {8,12}
                  9                10             11             12
グラフ                       {9,10}        {10,11}        {11,12}
 {v, ε }
画素の集合
 v = { ,2,L ,12}
      1
隣接画素対の集合
    { ,2}, {2,3}, {3,4}, {5,6}, {6,7}, {7,8}, {9,10}, { ,11}, { ,12},
      1                                                 10      11
 ε =                                                                 
    { ,5}, {2,6}, {3,7}, {4,8}, {5,9}, {6,10}, {7,11}, {8,12}
                                                                           11
      1                                                               
2. 画像生成モデルと大規模確率場

用語の定義
             1             2       3       4



             5             6       7       8



             9            10       11     12

i 番目の画素の輝度値を              xi と定義
      (
  x = x1,x2 ,L ,x v   )
                      T
                                   画像   x の定義
 状態ベクトル          状態変数                           12
2. 画像生成モデルと大規模確率場

用語の定義
画像処理において、確率を導入する場合・・・
それぞれの画素での輝度値に対して、“確率変数”を対応


画素の総数と同じ次元を持つ結合確率を使って表現

 各画素 i の輝度値に対する確率変数
   X i ∈ {0,1,L, Q − 1}
 画像全体の確率ベクトル(確率変数のベクトル)

       (
   X = X 1 , X 2 ,L, X v   )
 画像  x の確率
   Pr{X = x}                   13
2. 画像生成モデルと大規模確率場

ノイズ除去

ユーザがノイズ除去において最終的に得たい画像の性質を
確率 Pr{X = x} を使い、どのように表現するか?
例えば・・・
一枚の紙の上に、黒い点が一つのっている場面


                             紙




            ゴミと見なして手で払いのけようとする
               ノイズ除去:この操作をアルゴリズム化14
2. 画像生成モデルと大規模確率場

ノイズ除去
下記を仮定した操作
「局所的にある一つの画素に着目し、その近傍画素と輝度値が
できるだけ似た値になる画像がノイズが加えられる以前の画像」
確率を使う場合・・・
  上記の操作を
   ・ 「選択する場合」
   ・ 「選択しない場合」
  が自動的・適応的に可能であるようにデザイン可能
                                      1
Pr{X = x} = Pr{X = x α } ∝ ∏ exp − α
                          {i , j }∈ε
                                         (xi − x j )2 (α > 0) (1)
                                                      
                                      2              
α : 正の実数値であり、その値が大きい程空間的に滑らかな性質を画像の
     性質を反映した確率
ε:   すべての最近接画素対          {i, j}   の集合                        15
2. 画像生成モデルと大規模確率場

{v, ε } 上で定義される確率 Pr{X = x} のグラフ表現
                                                               元の画像の
 1               2
         {1,2}       {2,3} 3 {3,4} 4                      i    i 番目の画素
     {1,5}        {2,6}     {3,7}   {4,8}
                                                         i                j
 5               6              7              8              {i, j}
        {5,6}         {6,7}     {7,8}                          1              2
                                                         = exp − α (xi − x j ) 
     {5,9}        {6,10}    {7,11}              {8,12}         2               

 9               10             11             12
        {9,10}        {10,11}        {11,12}

    { ,2}, {2,3}, {3,4}, {5,6}, {6,7}, {7,8}, {9,10}, { ,11}, { ,12},
      1                                                 10      11
 ε =                                                                         (2)
    { ,5}, {2,6}, {3,7}, {4,8}, {5,9}, {6,10}, {7,11}, {8,12}
      1                                                                       16
2. 画像生成モデルと大規模確率場

Pr{X = x} は何を表すのか?
例1:
階調数                     Q=2                 =0        =1
画素の集合                   v = { ,2}
                             1
隣接画素対の集合                ε = {{ ,2}}
                              1
状態ベクトル                  x= (x1,x2 )T (0,0)T (1,0)T (0,1)T (1,1)T
      {             } {                     } {
 Pr X = (1,1) = Pr X = (0,0 ) > Pr X = (1,0) = Pr X = (0,1)
                T                       T                  T
                                                               } {         T
                                                                               }    (3)

      1     2       =      1        2       >     1    2       =   1   2


      1              2
  exp − α ( x1 − x2 ) 
      2               
                                                                                   17
2. 画像生成モデルと大規模確率場

Pr{X = x} は何を表すのか?

  {             } {                 } {               } {
Pr X = (1,1) = Pr X = (0,0 ) > Pr X = (1,0) = Pr X = (0,1)
            T                   T                 T               T
                                                                      }   (3)

 1      2       =       1   2       >     1   2       =   1   2


隣接画素対 { ,2} について画素2の状態を x2 = 1 に固定した時、
       1
式(4)を基準に画素1の状態の決定を考える

x1 = arg max Pr{X 1 = x1 , X 2 = 1}
 *
                                              (4)
            x1 = 0 ,1

      この場合、画素1の状態は                        x1 = 1 と選択
                                           *


      隣の画素の状態が決まれば、自分の画素の状態が決定
                                                                          18
2. 画像生成モデルと大規模確率場
Pr{X = x} は何を表すのか?
例2: 階調数                      Q=2
      画素の集合                  v = { ,2,L ,9}
                                  1
                   { ,2}, {2,3}, {4,5}, {5,6}, {7,8}, {8,9},
                     1
      隣接画素対の集合 ε = 
                   {1,4}, {2,5}, {3,6}, {4,7}, {5,8}, {6,9} 
                                                             
                             x = ( x1,x2 ,L ,x9 )
                                                   T
      状態ベクトル

 1            2              3                1           2              3
      {1,2}      {2,3}                            {1,2}      {2,3}
  {1,4}       {2,5}            {3,6}          {1,4}       {2,5}          {3,6}
 4            5              6                4           5              6
     {4,5}           {5,6}                       {4,5}           {5,6}
  {4,7}           {5,8}       {6,9}           {4,7}           {5,8}      {6,9}

 7            8               9               7           8              9   19
     {7,8}          {8,9}                         {7,8}         {8,9}
2. 画像生成モデルと大規模確率場
Pr{X = x} は何を表すのか?
画素5に着目した場合を考える
 画素5以外の画素 i の輝度値がすべて1・・・ xi = 1(∀i ∈ γ  {5})
 である時、画素5の輝度値 x5 = 0 と x5 = 1 を比較

 Pr{X = x} の値が大きくなるのは、 x5 = 1 の時
 1            2              3           1           2              3
      {1,2}      {2,3}                       {1,2}      {2,3}
  {1,4}       {2,5}          {3,6}       {1,4}       {2,5}          {3,6}
 4
     {4,5}
              5
                     {5,6}
                             6       >   4
                                            {4,5}
                                                     5
                                                            {5,6}
                                                                    6

  {4,7}           {5,8}      {6,9}       {4,7}           {5,8}      {6,9}

 7            8              9           7           8              9   20
     {7,8}          {8,9}                    {7,8}         {8,9}
2. 画像生成モデルと大規模確率場

マルコフ連鎖モンテカルロ法

画素の数が多い場合を考える
ε         { }
  に属する i, j の中で            xi = x j   を満たす      {i, j} の本数が多い
画像 x ほど出やすくなる。

    マルコフ連鎖モンテカルロ法
    式(1)の確率 Pr{X = x} に従う画像を生成方法の1つ
    ≒ 確率 Pr{X = x} に従う乱数ベクトル                    x を生成する方法

                                          1         2
    Pr{X = x} = Pr{X = x α } ∝ ∏ exp − α (xi − x j ) (α > 0 )   (1)
                              {i , j }∈ε  2          

                                                                   21
2. 画像生成モデルと大規模確率場

マルコフ連鎖モンテカルロ法
                             基本操作の繰り返し回数が多いほど
                             ベクトル x の初期状態とは独立な
2値画像の画像生成時の操作                画像が生成
 (1)初期値としてのベクトル       x   を設定
 (2)図6.5の基本操作を繰り返し実行
   (a)画像 x のある一つの画素 i に着目
   (b)その画素の値が白黒反転された画像 x′ を生成
   (c)同時に区間 [0,1] における一様乱数 U [0,1] を生成
   (d)式(7)を満たせば、 x′ を新たな x として採用

          Pr{X = x′}
                           > U [0,1]        (7)
     Pr{X = x}+ Pr{X = x′}
   (e)この操作を i = 1,2, L , v   に対して実施
                                           22
2. 画像生成モデルと大規模確率場

マルコフ連鎖モンテカルロ法




       図6.5 マルコフ連鎖モンテカルロ法の計算手順
                                      23
引用元:八木・斎藤編「コンピュータビジョン最先端ガイド3」 P.141
2. 画像生成モデルと大規模確率場

マルコフ連鎖モンテカルロ法




   図6.6 マルコフ連鎖モンテカルロ法により生成された画像

     α   の小さい時、本来は確率の低いはずの画像が生成



                                      24
引用元:八木・斎藤編「コンピュータビジョン最先端ガイド3」 P.142
2. 画像生成モデルと大規模確率場

マルコフ連鎖モンテカルロ法

「α の小さい時、本来は確率の低いはずの画像が生成」される理由


xi ≠ x j を満たす最近接画素対                        {i, j}の本数 K (x ) を導入
  K (x ) =     ∑ (x − x )                  ∑ε(1 − δ              )
                                  2
                          i   j       =               xi , x j
                                                                     (8)
             {i , j }∈ε                   { }
                                          i, j ∈


        画像 x は K ( x ) が小さい程、確率 Pr{X = x} の高い画像
        と言うことが可能だが・・・、以下の場合、状況が変わる。

                   {                         }
         A = x K ( x ) / ε ≤ 0.1 の時、 A と A の確率
                                                                     25
2. 画像生成モデルと大規模確率場

マルコフ連鎖モンテカルロ法

   {                             }
A = x K ( x ) / ε ≤ 0.1 の時、 A と A の確率
  Pr{A} ≡           ∑ε Pr{}X = x} (9)          Pr{A } ≡           ∑ε Pr{}X = x}   (10)
            {x K   ( )
                   x /   ≤ 0.1                            {x K   ( )
                                                                 x /   > 0.1


       (a)   α  がある程度以上に大きい時
             Pr{A} > Pr A (11)       {}
                   − xi = x j ({i, j}∈ ε ) を満たす画素が多い
       (b)   α      がある程度より小さい時                             不等号の向きが逆転
              Pr{A} < Pr{A}                    (12)
                   − xi = x j ({i, j}∈ ε ) を満たさない画素が多い
             事象 A の標本点の個数 A が少ないため、総和で
                                          {}
                                                                                  26
             みたときに確率 Pr A が小さくなる
2. 画像生成モデルと大規模確率場

マルコフ連鎖モンテカルロ法

不等式(11)から不等式(12)への切り替わりの          α   の値はどこか?


 「 α の小さい時の性質」と               「ゆらぎ」が大きくなると
 「 α の大きい時の性質」を併せ持つ           予想される




       図6.6 マルコフ連鎖モンテカルロ法により生成された画像

                                           27
引用元:八木・斎藤編「コンピュータビジョン最先端ガイド3」 P.142
2. 画像生成モデルと大規模確率場

マルコフ連鎖モンテカルロ法
「最近傍接画素対の輝度値の相関に対するゆらぎ」
共分散:
 Cov[X i , X j ] ≡ ∑ ∑ L ∑ ( xi − µi )(x j − µ j )Pr{X = x} (∀{i, j}∈ ε )(13)
                   1 1   1


                      x1 = 0 x2 = 0   x v =0
期待値:
        1     1         1
 µi ≡ ∑ ∑ L ∑ xi Pr{X = x}                                            (14)
      x1 = 0 x2 = 0   x v =0
                                               α = 1.7627 L




                         図6.7 v → +∞ における式(13)の共分散                     28
引用元:八木・斎藤編「コンピュータビジョン最先端ガイド3」 P.143
2. 画像生成モデルと大規模確率場

マルコフ連鎖モンテカルロ法
ベイズ推定による画像処理の発想の基本
   全体として似ているとは言い難いが部分的なパターンを
   取り出してみると、そこに類似性が見出される

             この類似性を画像処理に利用




図6.8 通常の自然画像を2階調化した画像と α = 1.75の時の生成画像の類似性
                                        29
引用元:八木・斎藤編「コンピュータビジョン最先端ガイド3」 P.144
2. 画像生成モデルと大規模確率場
Pr{X = x} の意味
ν  {5} の画素の状態が固定されている時、
「画素5」の状態に対する確率:条件付き確率を用い、式(15)と表現

  Pr{X 5 = x5 X k = xk ; ∀k ∈ν  {5}}       (15)


                         1       2      3



                         4       5      6



                         7        8     9


                                             30
2. 画像生成モデルと大規模確率場
Pr{X = x} の意味


ベイズの公式を用い式(15)を展開
                                             Pr{X = x}
Pr{X 5 = x5 X k = xk ; ∀k ∈ν  {5}} =                              (16)
                                      Pr{X k = xk ; ∀k ∈ν  {5}}

式(16)の分母は周辺化から得ることが可能
                                 1
Pr{X k = xk ; ∀k ∈ν  {5}} =   ∑ Pr{X = x}                         (17)
                               x5 = 0




                                                                    31
2. 画像生成モデルと大規模確率場
Pr{X = x} の意味

式(16)および式(17)に式(1)を代入
                                             1             2
Pr{X 5 = x5 X k = xk ; ∀k ∈ν  {5}} ∝ ∏ exp − α (x5 − x j )     (18)
                                      j∈∂ 5  2              
  ∂i : 画素 i の全ての最近接画素の集合                             1        2    3

        ∂i ≡ { j {i, j}∈ ε }                          4      5     6
        ∂5 = {2,4,6,8}
                                                      7      8     9




                                                                  32
2. 画像生成モデルと大規模確率場
Pr{X = x} の意味

マルコフ確率場
着目画素以外の画素の状態を固定した時、着目画素の状態は、
その最近接画素の状態のみによって決定されることを表す

Pr{X 5 = x5 X k = xk ; ∀k ∈ν  {5}} = Pr{X 5 = x5 X k = xk ; ∀k ∈ ∂5} (20)

     この性質を持つ確率場                 X    : マルコフ確率場

     マルコフ確率場は、Λ ⊂ ν に対して一般に次の等式として
     まとめられる
      Pr{X l = xl , ∀l ∈ Λ X k = xk ; ∀k ∈ν  Λ}
                                                                        (21)
          {                                (        )
      = Pr X l = xl ; ∀l ∈ Λ X k = xk , ∀k ∈ U K=1 ∂l  Λ, ∀l ∈ Λ
                                               k                    }
                                                                        33
2. 画像生成モデルと大規模確率場
Pr{X = x} の意味
 式(22)を用い、式(18)(1つの画素に着目)を一般の正方格子
 からなるグラフ ν , ε      (
                に対して書き下せる  )
 Pr{X i = xi X k = xk ; ∀k ∈ν  {}} = Pr{X i = xi X k ; ∀k ∈ ∂i}
                                 i
                                              1               2
                                    ∝ ∏ exp − α ( xi − xk )        (25)
                                       j∈∂i   2                
 再掲
                                              1               2
Pr{X 5 = x5 X k = xk ; ∀k ∈ν  {5}} ∝ ∏ exp − α (x5 − x j )        (18)
                                      j∈∂ 5   2                
  ∂i : 画素 i の全ての最近接画素の集合                                 1       2   3

         ∂i ≡ { j {i, j}∈ ε }                           4       5    6
         ∂5 = {2,4,6,8}
                                                        7       8    9
                                                                     34

More Related Content

PDF
第17回コンピュータビジョン勉強会@関東
PDF
17th cvsaisentan takmin
PDF
第8章 ガウス過程回帰による異常検知
PDF
パターン認識と機械学習6章(カーネル法)
PDF
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
PPTX
クラシックな機械学習の入門  5. サポートベクターマシン
PDF
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
ZIP
今さら聞けないカーネル法とサポートベクターマシン
第17回コンピュータビジョン勉強会@関東
17th cvsaisentan takmin
第8章 ガウス過程回帰による異常検知
パターン認識と機械学習6章(カーネル法)
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
クラシックな機械学習の入門  5. サポートベクターマシン
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
今さら聞けないカーネル法とサポートベクターマシン

What's hot (20)

PDF
Cv 14th
PDF
東京都市大学 データ解析入門 2 行列分解 1
PDF
線形計画法入門
PDF
Crfと素性テンプレート
PDF
コンピュータ先端ガイド2巻3章勉強会(SVM)
PDF
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
PDF
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
PDF
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
PDF
Prml sec6
PDF
東京都市大学 データ解析入門 3 行列分解 2
PPT
Gurobi python
PDF
パターン認識と機械学習 §6.2 カーネル関数の構成
PPT
Or seminar2011final
PDF
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
PDF
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
PDF
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
PDF
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
PDF
CVIM#11 3. 最小化のための数値計算
PDF
第4回MachineLearningのための数学塾資料(浅川)
PDF
2値分類・多クラス分類
Cv 14th
東京都市大学 データ解析入門 2 行列分解 1
線形計画法入門
Crfと素性テンプレート
コンピュータ先端ガイド2巻3章勉強会(SVM)
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
Prml sec6
東京都市大学 データ解析入門 3 行列分解 2
Gurobi python
パターン認識と機械学習 §6.2 カーネル関数の構成
Or seminar2011final
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
CVIM#11 3. 最小化のための数値計算
第4回MachineLearningのための数学塾資料(浅川)
2値分類・多クラス分類
Ad

Viewers also liked (20)

PDF
Deep Fried Convnets
PPTX
Multi Scale Recognition with DAG-CNNs
PDF
CVPR 2015 読み会 "Understanding Deep Image Representations by Inverting Them"
PPTX
Online moving camera_background_subtraction
PDF
論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)
PDF
Sparselet eccv2012
PPTX
Cvim saisentan-21-tomoaki
PDF
Joint Inverted Indexing
PDF
Reconstructing the World’s Museums
PPTX
Colorful image colorization
PPTX
Generating Notifications for Missing Actions: Don’t forget to turn the lights...
PPTX
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...
PPTX
ICML読み会2016@早稲田
PPTX
Curriculum Learning (関東CV勉強会)
PDF
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
PDF
Estimating structured vector autoregressive models
PPTX
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)
PDF
Meta-Learning with Memory Augmented Neural Network
PPTX
Icml読み会 deep speech2
PPTX
ICML2016読み会 概要紹介
Deep Fried Convnets
Multi Scale Recognition with DAG-CNNs
CVPR 2015 読み会 "Understanding Deep Image Representations by Inverting Them"
Online moving camera_background_subtraction
論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)
Sparselet eccv2012
Cvim saisentan-21-tomoaki
Joint Inverted Indexing
Reconstructing the World’s Museums
Colorful image colorization
Generating Notifications for Missing Actions: Don’t forget to turn the lights...
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...
ICML読み会2016@早稲田
Curriculum Learning (関東CV勉強会)
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
Estimating structured vector autoregressive models
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)
Meta-Learning with Memory Augmented Neural Network
Icml読み会 deep speech2
ICML2016読み会 概要紹介
Ad

Similar to 20111107 cvim(shirasy) (8)

PDF
Fisher Vectorによる画像認識
PDF
2分木の演習問題[アルゴリズムとデータ構造]
PDF
大規模画像認識とその周辺
PPTX
SWETの取り組むImage Based Testing
PDF
回帰
PPTX
CG2013 02
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
PDF
文献紹介:Rethinking Data Augmentation for Image Super-resolution: A Comprehensive...
Fisher Vectorによる画像認識
2分木の演習問題[アルゴリズムとデータ構造]
大規模画像認識とその周辺
SWETの取り組むImage Based Testing
回帰
CG2013 02
[DL輪読会]GQNと関連研究,世界モデルとの関係について
文献紹介:Rethinking Data Augmentation for Image Super-resolution: A Comprehensive...

More from Yoichi Shirasawa (18)

PDF
動画にて、身体と人工物のインタラクションを表現する
PDF
写真に関わるユーザーエクスペリエンス(UX)のためのアプローチ
PDF
写真撮影プロセスとHCDプロセスの共通性
PDF
フォトグラファーのためのUXデザイン
PDF
20151004 hcdvalue LT_shirasy_スケッチモーション
PDF
写真を見る人の経験のためにできること
PDF
20131116 digitable shirasy
PDF
201312hcdnet2013-shirasy
PDF
20140321_abc2014spring_shirasy
PDF
20130622_gcs2013_shirasy
PDF
20121021hcdvalue_shirasy
PDF
20120623 cv勉強会 shirasy
PDF
20111212paper whiteboard prototyping(shibuyaux)
PDF
20111127 iccv祭り shirasy
PDF
20110904cvsaisentan(shirasy) 3 4_3
PDF
20110625 cv 3_3_5(shirasy)
PDF
20110109第8回CV勉強会(ミーンシフトの原理と応用:6章・7章)shirasy)
PDF
20100626 CVIM(3)6,7 shirasy
動画にて、身体と人工物のインタラクションを表現する
写真に関わるユーザーエクスペリエンス(UX)のためのアプローチ
写真撮影プロセスとHCDプロセスの共通性
フォトグラファーのためのUXデザイン
20151004 hcdvalue LT_shirasy_スケッチモーション
写真を見る人の経験のためにできること
20131116 digitable shirasy
201312hcdnet2013-shirasy
20140321_abc2014spring_shirasy
20130622_gcs2013_shirasy
20121021hcdvalue_shirasy
20120623 cv勉強会 shirasy
20111212paper whiteboard prototyping(shibuyaux)
20111127 iccv祭り shirasy
20110904cvsaisentan(shirasy) 3 4_3
20110625 cv 3_3_5(shirasy)
20110109第8回CV勉強会(ミーンシフトの原理と応用:6章・7章)shirasy)
20100626 CVIM(3)6,7 shirasy

20111107 cvim(shirasy)