Published On Premiered Jan 8, 2021
動画内の tanh はシグモイド関数σの誤りでした🙇♀️
動画内の誤り一覧 http://bit.ly/error_asp
▼テーマ
2010年頃から盛んに研究されはじめた、自然言語処理 (Natural Language Processing / NLP) へのディープラーニングへの応用です。
RNN から始まり、近年の attention 機構を利用した Transformer や BERT へ向けた動画の旅を始めます。
▼関連動画
RNN についてよくわからない方はこちら!
• 【深層学習】RNN の意味を徹底解説!【ディープラーニングの世界 vol....
▼関連プレイリスト
Deep Learning の世界 • Deep Learning の世界
自然言語処理シリーズ • 自然言語処理シリーズ
▼目次
00:00 OP
==== 1.RNNLM ====
01:12 RNNLMとは
03:40 RNNLM以前の時代について
==== 2.精度(in 2020) ====
04:23 どんなタスクを解いたのか?
05:55 どれくらい精度が上がったか?
06:48 PPLについて
10:45 WERについて
12:50 結局RNNLMは何が凄いの?
==== 3.モデル====
13:39 モデルの紹介
16:36 どんな数式で動いているか?
19:25 原論文の小話
20:19 本日のまとめ
=========
20:34 ED
▼参考文献
Mikolov, Tomas, et al. “Recurrent Neural Network Based Language Model.” INTERSPEECH, 2010, pp. 1045–1048.
http://noel.feld.cvut.cz/gacr0811/pub...
今回の原論文です。 Deep Learning の黎明期、まだ connectionism と呼ばれていた時代の考察です。
歴史的背景も知れて面白いです。
▼終わりに
ご視聴ありがとうございました!
面白かったら高評価、チャンネル登録お願いします。
動画の質問、感想などは、コメント欄やTwitterにどうぞ!
お仕事、コラボのご依頼は、TwitterのDMからお願い致します。
動画生成:AIcia Solid (Twitter: / aicia_solid )
動画編集:AIris Solid (妹) (Twitter: / airis_solid )
=======
Logo: TEICAさん ( / t_e_i_c_a )
Model: http://3d.nicovideo.jp/works/td44519
Model by: W01fa さん ( / w01fa )