[DL輪読会]Deep Learning 第17章 モンテカルロ法

>100 Views

June 01, 18

スライド概要

2018/01/15
Deep Learning JP:
http://deeplearning.jp/seminar-2/

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

(ダウンロード不可)

関連スライド

各ページのテキスト
1.

Deep Learning 輪読会 2017 第17章 モンテカルロ法  理学系研究科附属 天文学教育研究センター 学部4年 吉村勇紀

2.

構成 17.1 サンプリングとモンテカルロ法 17.2 重点サンプリング 17.3 MCMC 17.4 ギブスサンプリング 17.5 モードの混合問題

3.

17.1 サンプリングとモンテカルロ法 • モンテカルロサンプリング – 総和や積分をある確率分布の下での期待値に置き換える – これは不偏推定量である – 分散はn無限大で0に

4.

17.2 重点サンプリング • 被積分(被総和)関数の分解 – 一通りではない – モンテカルロ推定量は重点サンプリング推定量に変換できる – 両推定量の期待値はqによらず一致 – 推定量の分散はqの選択に敏感で次のとき最小 • 無バイアス重点サンプリング – 正規化を必要としない

5.

17.3 マルコフ連鎖モンテカルロ法 • MCMC – マルコフ連鎖を用いたサンプリング法 – マルコフ連鎖 -> 条件付き独立な確率に従う系列 – 遷移確率 T(x’|x) による確率的状態遷移 – 条件はどの状態にたいしても確率0ではない -> EBM – EBMから同時分布をサンプリングするのは容易でない -> 卵が先か鶏が先か • 平衡状態への収束 – 遷移は行列、確率はベクトルで書ける – 遷移行列の固有値のうち1未満のものは0に収束 – 固有値が1つしかない時、対応する固有ベクトルが定常状態となる

6.

17.3 マルコフ連鎖モンテカルロ法 • MCMCのコスト – 平衡状態に達する(burning in)までの時間(混合時間) – 平衡状態から独立なサンプルを得るのにかかるステップ数 • MCMCの困難 – 混合時間が不明である – 定常状態に達したか厳密にテストできない – ヒューリスティックな方法でやるしかない

7.

17.4 ギブスサンプリング • 遷移確率の決め方 – 学習したモデル分布から導く -> ギブスサンプリング – 遷移確率を直接学習する -> 20章 • ギブスサンプリング – メトロポリス・ヘイスティング法の一種 • 以下の確率で新たなサンプルを採択する棄却サンプリング

8.

17.5 分離されたモード間の混合の課題 • 不十分な混合 – エネルギーの低い状態への遷移 -> 小ステップで実現 – エネルギーの高い状態への遷移 -> ランダムウォーク的(非効率) – 一旦あるモードに達すると他のモードへ移動しにくい

9.

17.5 分離されたモード間の混合の課題 • 焼きなまし法 – 目標分布を変える – EBMの場合逆温度βを導入する – β<1 (高温) でサンプリングして混合した後、β=1で混合する – 様々な温度で同時に行う並列焼きなまし法もある

10.

17.5 分離されたモード間の混合の課題 • 深さが混合に役立つ可能性 – p(h|x)においてhの表現を深くする – 深い自己符号下記やRBMでは異なるモードの隔たりが小さい – 深層モデルによるサンプリング法の支援については不明なことが多い

11.

���� • �������9�D�D� – 69D������������������9 ��D������9��D���������� – ���� ������������9�9��D������������������������������� �������������69D�������������������������