12/11(月)~12/17(日)の日記を書きます。
参加したイベント
第10回 強化学習アーキテクチャ勉強会 - connpass(12/12)
- スライドがアップされていました: GAN(と強化学習との関係)
- 生成モデルって何だったっけ; 生成モデルは日本人の顔が出てくる箱。逆にこの箱をつくるには日本人の顔のデータが要る。生成モデルをつくるときに、「特徴量をニューラルネットに入れて出てくるものを取り出す」というやり方でつくろうとするのが VAE や GAN。ただし両者はこの箱の学習の仕方が異なる。
- JSダイバージェンス:
- 課題:
が未熟だと、
は同じような模造データばかりつくってしまう。なので、
の性能を十分上げておきたいが、といって完璧にしてしまうと、
はネットワークの重みをどの方向に更新しても損失が変わらなくなってしまい、学習できなくなる。
- 純正データは純正データ空間のとても局所的なところにしか存在しないので、
がもともと上手い模造データをつくらないとほぼ交わらないというのも MCMC に似ている。それを解決するのがワッサースタイン距離。
- GAN がよいかどうかの評価は、GANをつかう目的に照らし合わせてだと思った(GANそのものの研究についての論文ではもちろんGANだけで評価することが必要ですが)。
- アクター・クリティックについて昔作成したスライド(この前頁が REINFORCE):
- 強化学習でいう「期待収益をよくすること」と GAN にとっての「純正データっぽい模造データを出すこと」はどうアナロジーなのか。強化学習での方策の期待収益を見極める=GANの真贋を見極めるで、よい方策を求める=精巧な模造品をつくるで、訊こうと思ったけどまあいいや。
Speee もくもく会(12/16)
また昼食をいただきました。ありがとうございました。
mockmock.dev #142 - connpass(12/17)
遅刻してしまいました。ありがとうございました。