Web教科書

初期のRNN

エルマンネット / ジョルダンネット

解説:RNNの「始祖」たち

1990年代初頭に考案された、現代のRNNの原型となるモデルです。それまでのニューラルネットワークは「その瞬間の入力」しか見ることができませんでしたが、これらのモデルは過去の情報を保持する「文脈層(Context Layer)」を導入することで、時系列データの処理を可能にしました。

両者の違いは、「どの情報を『記憶』として次のターンに持ち越すか」です。

1. エルマンネットワーク (Elman Network)

現在の「隠れ層(Hidden Layer)」の状態を、次のステップの入力に戻します。
これは現在の標準的なRNNの構造そのものです。

2. ジョルダンネットワーク (Jordan Network)

現在の「出力層(Output Layer)」の結果を、次のステップの入力に戻します。
「自分が何を出力したか」を記憶するため、ロボットの制御など、出力結果を次の行動に反映させるタスクに適していました。

モデル名 フィードバック元 現代への系譜
エルマンネット 隠れ層 (Hidden Layer)
(内部状態を維持)
標準的なRNNの原型。
多くの時系列モデルの基礎となった。
ジョルダンネット 出力層 (Output Layer)
(結果をフィードバック)
制御工学的なアプローチ。
現在の主流ではないが、強化学習的な発想に近い。
エルマンネットとジョルダンネットの構造比較図

G検定対策

出題ポイント

  • 再帰元の違い:「エルマン=隠れ層」「ジョルダン=出力層」。これさえ覚えておけば解けます。
  • 文脈層(Context Layer):過去の情報を一時保存しておく層のこと。この概念が、のちのLSTMの「セル(記憶素子)」へと進化していきました。

ひっかけ対策

  • × ジョルダンネットワークは隠れ層からフィードバックする
    (解説)それはエルマンです。名前と構造をテレコ(あべこべ)にした選択肢が頻出です。
  • × これらは勾配消失問題を解決したモデルである
    (解説)これらは初期のモデルであり、勾配消失問題は解決できていません。それを解決したのは、後の「LSTM」です。
タイトルとURLをコピーしました