再帰型ニューラルネットワークの「基礎の基礎」を理解する ~ディープラーニング入門|第3回
前回は、ディープラーニングの中でも、とくに画像認識で利用される畳み込みネットワークを取り上げた。画像認識はディープラーニングの応用分野として、最も研究が盛んで、適用事例も多いエリアである。しかし、そのほかの分野でもさまざまな形での応用が進められており、そこでは畳み込みネットワーク以外の手法が利用されることも多い。
今回は、それらの中から「再帰型ニューラルネットワーク」と呼ばれる手法を取り上げて解説する。

再帰型ニューラルネットワーク: RNN入門
再帰型ニューラルネットワーク(RNN)は自然言語処理の分野で高い成果をあげ、現在最も注目されているアルゴリズムの一つです。しかしながら、その人気が先走りして実際にRNNがどのように動くのか、構築するのかを解説する書籍は限られているように思います。この投稿はその部分にフォーカスを当てて友人のDenny(WildMLブログの著者)と一緒に書きました。

再帰型ネットワークと長・短期記憶についての初心者ガイド
このページでは、ニューラルネットワークについて勉強されている方々のために、再帰型(リカレント)ニューラルネットワークの機能、そして主なバリエーションである長・短期記憶(LSTM)の目的と構造についてご説明します。
再帰型ニューラル・ネットワークの徹底調査
再帰型ニューラル・ネットワーク (RNN) は、(後続の層に向かってのみ結合していく従来型のフィードフォワード・ネットワークとは対照的に) 層内での重み付き結合を考慮に入れる、ニューラル・ネットワークの部類です。RNN はループを組み込むことから、新しい入力を処理する間、情報を保管できます。したがって、前の入力 (例えば、時系列データ) を考慮しなければならないタスクを処理するには、この記憶力を備えた RNN が理想的な手段となります。このような理由で、現在の深層学習ネットワークでは RNN をベースとしているわけです。このチュートリアルでは、RNN の背後にある考え方を探り、連続するデータを予測する RNN をゼロから実装します。