どーも!
現在のプロジェクトが今年で交代することになったTTです!
機械学習のモデルは2つに大別される

識別(Diecriminative, backwards)生成(Generative, forward)
目的データを目的のクラスに分類
データ⇒クラス
特定のクラスのデータを生成
クラス⇒データ
犬や猫の画像のデータを識別(分類)犬らしい画像の生成
計算結果$$ p(C_k|x) $$
あるデータxが与えられたという条件のもとでクラス C_kである確率
$$ p(x|C_k) $$
あるクラスyに属するという条件のもとでクラスxである確率
具体的なモデル決定木
ロジスティック回帰
サポートベクターマシン(SVM)
ニューラルネットワーク
隠れマルコフモデル
ベイジアンネットワーク
変分オートエンコーダー(VAE)
敵対的生成ネットワーク(GAN)
特徴高次元⇒低次元
必要な学習:少
低次元⇒高次元
必要な学習:多
最近のコンピュータの発展により実現可能
応用例画像認識画像の超解像
テキスト生成

機械学習のモデルは確率を使って何かを示したりしている
クラスがk種類


2021/11/25

生成モデル識別モデル識別巻数
識別の計算$$ p(x|C_k)\dot p(C_k)$$を推定
ベイズの定理より
$$ p(C_k|x)= \franc{ p(x|C_k) \dot p(C_k) }{p(x)}$$
ただし$$ p(x) = \sum_k p(x|C_k) p(C_k)$$
$$ p(C_k|x) $$を推定
決定理論に基づき識別結果を得る
※閾値に基づく決定など
入力値xを直接クラスに写像(変換)する巻数f(x)を推定
モデル化の対象各クラスの生起確率
データのクラス条件付き密度
データがクラスに属する確率データの属するクラスの情報のみ
※確率は計算されない
特徴データを人工的に生成できる
確率的な識別
確率的な識別学習量が少ない
決定的な識別
学習コスト
de

データのクラス条件付き密度は分類結果より複雑⇒生成モデルはこの分布を推定
単に分類結果を得るのであれば、直接データがクラスに属する確率を求める⇒分類モデルのアプローチ

識別モデルによる識別
推論:入力データを元に事後確率を算出
決定:事後確率を基に識別結果を得る
⇒間違いの程度を測定可能
⇒推論結果の取り扱いを決定可能

識別関数による識別
入力で0-寶識別結果を一気に得る
⇒間違いの程度の測定不可

2021/11/25

コメント

タイトルとURLをコピーしました