1. どんなもの?

Drooutを行うDeep Networkの他にDropout率を求めるBinary Belief Networkを用意し,入力に適応したDropout率を求める.

2. 先行研究と比べてどこがすごいの?

Neural Networkの過学習を抑えるDrooutでは,一般的に0.5という一定のDropout率を採用している.

本研究ではBinary Belief Networkを用いてDropout率を適応的に決定するアーキテクチャ”Stand Out”を提案している.

3. 技術や手法の”キモ”はどこにある?

  • Stand Out
    • Deep Networkとは別にネットワークを用意する
    • Binary Belief Networkのように振る舞う
    • 元のネットワークとパラメータを共有している
    • Dropoutマスク ,ネットワークのパラメータ ,Dropout率 としたとき,以下のように学習を行う
      • Binary Belief Networkで生成される分布 を事後分布に近づける
      • 尤度 を最大化する

4. どうやって有効だと検証した?

MNISTデータセットとNORBデータセットでStand Outの効果を検証している.

教師なしのfeature learning手法であるRBMやDeep AE,通常のDropout率固定のAEとStand Outを用いたAEでエラー率を比較している.

5. 議論はあるか?

6. 次に読むべき論文はあるか?

論文情報・リンク