2018-01-01から1年間の記事一覧

隼時系列本: ノート5

以下の本を読みます。時系列分析と状態空間モデルの基礎: RとStanで学ぶ理論と実装馬場 真哉 プレアデス出版 2018-02-14売り上げランキング : 7742Amazonで詳しく見る by G-Tools※ 以下、キャラクターが会話します。原作とは関係ありません。上の本からそれ…

隼時系列本: ノート4

以下の本を読みます。時系列分析と状態空間モデルの基礎: RとStanで学ぶ理論と実装馬場 真哉 プレアデス出版 2018-02-14売り上げランキング : 7742Amazonで詳しく見る by G-Tools※ 以下、キャラクターが会話します。原作とは関係ありません。上の本からそれ…

隼時系列本: ノート3

以下の本を読みます。時系列分析と状態空間モデルの基礎: RとStanで学ぶ理論と実装馬場 真哉 プレアデス出版 2018-02-14売り上げランキング : 7742Amazonで詳しく見る by G-Tools※ 以下、キャラクターが会話します。原作とは関係ありません。上の本からそれ…

隼時系列本: ノート2

以下の本を読みます。時系列分析と状態空間モデルの基礎: RとStanで学ぶ理論と実装馬場 真哉 プレアデス出版 2018-02-14売り上げランキング : 7742Amazonで詳しく見る by G-Tools※ 以下、キャラクターが会話します。原作とは関係ありません。上の本からそれ…

隼時系列本: ノート1

以下の本を読みます。時系列分析と状態空間モデルの基礎: RとStanで学ぶ理論と実装馬場 真哉 プレアデス出版 2018-02-14売り上げランキング : 7742Amazonで詳しく見る by G-Tools※ 以下、キャラクターが会話します。原作とは関係ありません。内容の誤りは本…

雑記: 5次以上の方程式に解の公式が存在しない話

以下の話は厳密なものでも網羅的なものでもありません。キャラクターが登場しますが原作とは関係ありません。内容の誤りは筆者に帰属しますのでご指摘ください。 美希、最近仕事忙しそうだけど学校の勉強は大丈夫?春香に心配されなくてもミキは成績いいの。…

NIPS2017論文読みメモ: Tensorized LSTM(その3)

以下の論文を読みます。Zhen He, Shaobing Gao, Liang Xiao, Daxue Liu, Hangen He and David Barber. Wider and Deeper, Cheaper and Faster: Tensorized LSTMs for Sequence Learning. arXiv: 1711.01577, 2017. https://arxiv.org/abs/1711.01577※ 以下、…

NIPS2017論文読みメモ: Tensorized LSTM(その2)

以下の論文を読みます。Zhen He, Shaobing Gao, Liang Xiao, Daxue Liu, Hangen He and David Barber. Wider and Deeper, Cheaper and Faster: Tensorized LSTMs for Sequence Learning. arXiv: 1711.01577, 2017. https://arxiv.org/abs/1711.01577※ 以下、…

NIPS2017読み会@PFN: 参加メモ

以下の勉強会に参加してきました。connpass.com 以下、思ったことのメモです。いい加減なことしか書いてなく、文字数と興味は比例しません。 NIPSについて NIPS会議への参加はプラチナチケットなのですね…。 GANのテーマトーク 半教師有りですごいというのや…

NIPS2017論文読みメモ: Tensorized LSTM(その1)

以下の論文を読みます。Zhen He, Shaobing Gao, Liang Xiao, Daxue Liu, Hangen He and David Barber. Wider and Deeper, Cheaper and Faster: Tensorized LSTMs for Sequence Learning. arXiv: 1711.01577, 2017. https://arxiv.org/abs/1711.01577※ 以下、…

NIPS2017論文読みメモ: Tensorized LSTM(その0)

以下の論文を読む準備をします。論文の内容に入っていないのでその0です。Zhen He, Shaobing Gao, Liang Xiao, Daxue Liu, Hangen He and David Barber. Wider and Deeper, Cheaper and Faster: Tensorized LSTMs for Sequence Learning. arXiv: 1711.01577,…

NIPS2017論文読みメモ: Inverse Reward Design(その5)

NIPS2017論文読み会に参加するので論文を読みたいと思います。今回読むのは以下です。最終回です。Dylan Hadfield-Menell, Smitha Milli, Pieter Abbeel, Stuart Russell and Anca Dragan. Inverse Reward Design. arXiv: 1711:02827, 2017. https://arxiv.o…

NIPS2017論文読みメモ: Inverse Reward Design(その4)

NIPS2017論文読み会に参加するので論文を読みたいと思います。今回読むのは以下です。Dylan Hadfield-Menell, Smitha Milli, Pieter Abbeel, Stuart Russell and Anca Dragan. Inverse Reward Design. arXiv: 1711:02827, 2017. https://arxiv.org/abs/1711.…

NIPS2017論文読みメモ: Inverse Reward Design(その3)

NIPS2017論文読み会に参加するので論文を読みたいと思います。今回読むのは以下です。Dylan Hadfield-Menell, Smitha Milli, Pieter Abbeel, Stuart Russell and Anca Dragan. Inverse Reward Design. arXiv: 1711:02827, 2017. https://arxiv.org/abs/1711.…

NIPS2017論文読みメモ: Inverse Reward Design(その2)

NIPS2017論文読み会に参加するので論文を読みたいと思います。今回読むのは以下です。Dylan Hadfield-Menell, Smitha Milli, Pieter Abbeel, Stuart Russell and Anca Dragan. Inverse Reward Design. arXiv: 1711:02827, 2017. https://arxiv.org/abs/1711.…

NIPS2017論文読みメモ: Inverse Reward Design(その1)

お正月ですがNIPS2017論文読み会に参加するので論文を読みたいと思います。今回読むのは以下です。Dylan Hadfield-Menell, Smitha Milli, Pieter Abbeel, Stuart Russell and Anca Dragan. Inverse Reward Design. arXiv: 1711:02827, 2017. https://arxiv.o…