3.14 paper雑読
吉本隆明を全く分からないまま読んでます。共同幻想論はわかる日が来るんですかね...
[1802.06167] CapsuleGAN: Generative Adversarial Capsule Network
話題になりましたよね、カプセルギャン。
/What? - 生成系で最も期待されているGANにCapsNetsを応用、というのがこの論文です。CapsNetsはヒントン大先生の秘蔵っ子でpowerful alternative to CNNsという一節がすべてを表しています。詳しい内容は下記のブログ記事を参照していただきたいですが、簡単には人間のものの認識の仕方として境界をどうとっているかを再現したのがCNNで、Capsule Netsではもっと大きな要素間の位置関係まで再現しようというのが根本のアイデアです。この論文ではGANの2要素generator/discriminatorのうちdiscriminatorにCapsule Netsを応用しています。
/Superior? - CNNベースのGANより少ない訓練データで生成モデルを構築可能。
/Next? - 何はともあれ実装がみたい!と思ったらありました。中身を読みたい。
[1712.08645] Dropout Feature Ranking for Deep Learning Models
この論文の全体のデザインきれいで好きです。何かの学会のフォーマットかな。
/What? - ブラックボックス化することで悪名高いDNNをどうにかして解釈可能な形にしようという方法論の一つ。Dropoutは中間のノードをランダムに50%で無視して(Dropoutして)DNNの汎化性能を上げようというもの。この論文ではDropoutをランダムではなく順位付けしてから行うことで各層に意味を持たせようとしています。
/Superior? - 性能向上はなく新手法でも従来と同様の結果を得られたというのが締めです。時間かかってしまいそうな手法ですしね。
/Next? - 似たような発想で特徴量選択を行っている論文がありますのでそれですかね。これ
Natural and Artificial Intelligence
これは論文ではなくブログ記事です。
/What? - 題名の通り「人工知能」と私たちが持っている(と信じている)「自然知能」を比較し、その違いを論じたうえでコンピュータ上で数学の理論の組み合わせでできた人工知能が自然知能を置き換えることはないという結論で締めています。言っていることは常日頃僕も思っていたことでいい言語化をありがとうというところなんですが、特に自然界と人間のデザインした機械ではrobustnessとefficiencyという全く異なるものを目指しているという論は綺麗です。まあ今ある程度のものを「知能」と呼ぶなという当たり前の話ですね。
今日はこれも読んだんですがわからなかった...。さすがにまだ統計よりの長めの論文を読める知識がありませんでした。MCまわりの勉強等々を終えたら(いつ)戻ってきたいです。というかmonte carlo周りの勉強の参考書ってなにかおススメありましたら是非ご教授ください…。
実ははじめての学会を経験してきました。自分の研究を紹介して意見交換するというのはなかなかいいものですね、モチベーションになりました。雇用が終わるのでいったんは終了なんですがまた卒業研究等でこの経験を活かしたいです。