Adaptive Dropout for Training Deep Neural Networks
1. どんなもの?
Drooutを行うDeep Networkの他にDropout率を求めるBinary Belief Networkを用意し,入力に適応したDropout率を求める.
2. 先行研究と比べてどこがすごいの?
Neural Networkの過学習を抑えるDrooutでは,一般的に0.5という一定のDropout率を採用している.
本研究ではBinary Belief Networkを用いてDropout率を適応的に決定するアーキテクチャ”Stand Out”を提案している.
3. 技術や手法の”キモ”はどこにある?
- Stand Out
- Deep Networkとは別にネットワークを用意する
- Binary Belief Networkのように振る舞う
- 元のネットワークとパラメータを共有している
- Dropoutマスク ,ネットワークのパラメータ ,Dropout率 としたとき,以下のように学習を行う
- Binary Belief Networkで生成される分布 を事後分布に近づける
- 尤度 を最大化する
4. どうやって有効だと検証した?
MNISTデータセットとNORBデータセットでStand Outの効果を検証している.
教師なしのfeature learning手法であるRBMやDeep AE,通常のDropout率固定のAEとStand Outを用いたAEでエラー率を比較している.