どーも!
現在のプロジェクトが今年で交代することになったTTです!
機械学習のモデルは2つに大別される
識別(Diecriminative, backwards) | 生成(Generative, forward) | |
目的 | データを目的のクラスに分類 データ⇒クラス | 特定のクラスのデータを生成 クラス⇒データ |
例 | 犬や猫の画像のデータを識別(分類) | 犬らしい画像の生成 |
計算結果 | $$ p(C_k|x) $$ あるデータxが与えられたという条件のもとでクラス C_kである確率 | $$ p(x|C_k) $$ あるクラスyに属するという条件のもとでクラスxである確率 |
具体的なモデル | 決定木 ロジスティック回帰 サポートベクターマシン(SVM) ニューラルネットワーク | 隠れマルコフモデル ベイジアンネットワーク 変分オートエンコーダー(VAE) 敵対的生成ネットワーク(GAN) |
特徴 | 高次元⇒低次元 必要な学習:少 | 低次元⇒高次元 必要な学習:多 最近のコンピュータの発展により実現可能 |
応用例 | 画像認識 | 画像の超解像 テキスト生成 |
機械学習のモデルは確率を使って何かを示したりしている
クラスがk種類
2021/11/25
生成モデル | 識別モデル | 識別巻数 | |
識別の計算 | $$ p(x|C_k)\dot p(C_k)$$を推定 ベイズの定理より $$ p(C_k|x)= \franc{ p(x|C_k) \dot p(C_k) }{p(x)}$$ ただし$$ p(x) = \sum_k p(x|C_k) p(C_k)$$ | $$ p(C_k|x) $$を推定 決定理論に基づき識別結果を得る ※閾値に基づく決定など | 入力値xを直接クラスに写像(変換)する巻数f(x)を推定 |
モデル化の対象 | 各クラスの生起確率 データのクラス条件付き密度 | データがクラスに属する確率 | データの属するクラスの情報のみ ※確率は計算されない |
特徴 | データを人工的に生成できる 確率的な識別 | 確率的な識別 | 学習量が少ない 決定的な識別 |
学習コスト | 大 | 中 | 小 |
データのクラス条件付き密度は分類結果より複雑⇒生成モデルはこの分布を推定
単に分類結果を得るのであれば、直接データがクラスに属する確率を求める⇒分類モデルのアプローチ
識別モデルによる識別
推論:入力データを元に事後確率を算出
決定:事後確率を基に識別結果を得る
⇒間違いの程度を測定可能
⇒推論結果の取り扱いを決定可能
識別関数による識別
入力で0-寶識別結果を一気に得る
⇒間違いの程度の測定不可
2021/11/25
コメント