財産目録

読書記録や思考記録、勉強記録として使います。

3.13 paper雑読

/より.のほうが見た目イイですね。

新しいものも読んでましたが忙しくて書き残す時間なく...

昔というか影響力の強いものも読んだのでそれも含めて。

 

 

 

[1703.10135] Tacotron: Towards End-to-End Speech Synthesis

Tacotronです。HPが絶妙にダサい。

/What? - googleのEnd-to-End音声合成の試みの一つ。テキストと音声のペアがあればタコは完璧になるとのこと。

/Superior? - ここ結構この論文の一番いいところな気がします。今までのGoogle音声合成の試みを概観し、それぞれの特徴がよくまとまっています。またちゃんと1本で書きたい。

 

/Next? - Ryuichi Yamamotoさんのpytorch実装一択ですね。動かすのが今年度の目標(あと何日なの...?)。

github.com

 

[1802.05910] Pattern Localization in Time Series through Signal-To-Model Alignment in Latent Space

/What? - 時系列データからパターンを認識することについて。タスクとしてははsignalをmodelに変換する(S2M)。

/Superior? - 従来法は入手可能なモデルから時系列データを合成し、ターゲットの時系列データを当てはめていくものだが、最初の合成の困難さと同じモデルに複数のパターンが属しているという困難さが欠点だった。本研究で機械学習により時系列データを潜在相関空間(latent correlation space)にマッピングして、変換を行う実験をした。

 

/Next? - 音声関連を基本的に追っていたので、音にかかわらない時系列データはネタの宝庫なのでは?関連研究をしっかり追いたい。

 

Math book

論文じゃないんですが紹介させてください。

/What? - 統計物理学者の田崎晴明氏が公開している学部1,2年向きの数学の教科書。いわゆる物理数学だがその内容は数学全般を広くカバーしてあります。まだ全部読み切ってはないんですが、「あれここなんだっけ」というときにも細かい証明まで書いてあるので非常に便利です。おススメ。

 

Requests for Research

ruder.io

これも論文ではないですが。

NLPの研究者によるNLPにおける研究課題。現時点で

  1. タスクごとのdata augmentation
  2. 少ないサンプルからの学習
  3. 転移学習
  4. 異言語間のNLP
  5. タスクごとのアーキテクチャの改善

の5つについて書かれています。個人的にNLPでのdata augmentationを考えたことがなかったので面白いと思いました。

 

まとまりはないですがこんなところで。ちゃんと1本で記事を書きたい論文がいくつかあるので時間を作ります。あと最近はjuliaでmonte carlo周りを触っているので仕上がったら宣伝がてらgithubごとあげます。