Web教科書

LSTM

Long Short Term Memory (LSTM)

解説:記憶を「ベルトコンベア」で運ぶ

Long Short Term Memory(LSTM)は、RNNが抱えていた「昔のことをすぐに忘れてしまう(長期依存の学習が苦手)」という致命的な弱点を克服したモデルです。

通常のRNNは、情報が通過するたびに計算(掛け算)が繰り返されるため、古い記憶がどんどん薄れて消えてしまいます(勾配消失問題)。
そこでLSTMは、情報の通り道に「邪魔されずに記憶を運ぶ専用レーン(セル状態)」を用意しました。

記憶を制御する「3つのゲート」

LSTMの内部には、情報をただ通すだけでなく、「何を忘れて、何を覚えるか」を調整する3つの関所(ゲート)があります。

ゲート名 役割とセリフ
忘却ゲート
(Forget Gate)
「いらない過去を捨てる」
過去の記憶(セル状態)の中から、もう役に立たない情報を削除します。
(例:「昨日の天気」の情報は、今日の服装選びにはもう不要だから消そう)
入力ゲート
(Input Gate)
「新しい情報を書き込む」
今の新しい入力情報のうち、どれを重要として記憶(セル状態)に追加するかを決めます。
(例:「今日の天気」は重要だからしっかりメモしておこう)
出力ゲート
(Output Gate)
「結果を出力する」
更新された記憶と今の入力を元に、最終的に次の層へ渡す値(隠れ状態)を決定します。
💡 G検定の隠れキーワード:「CEC」
LSTMの中心にある「記憶を保持する部品」のことを、専門的にはCEC(Constant Error Carousel:定誤差カルーセル)と呼びます。
「勾配消失を防ぐための中心的な機能は何か?」と聞かれたら、このCECが正解です。
LSTMのゲート構造図解

G検定対策

出題ポイント

  • 構造:「忘却・入力・出力」の3つのゲートと、記憶を保持するセル状態(Cell State)を持つ。
  • 効果:「勾配消失問題」を解決し、長い時系列データ(長文の翻訳や音声認識)の学習を可能にした。
  • CEC:勾配を消失させずに維持する中心的な役割を持つ部分の名称。

ひっかけ対策

  • × LSTMはRNNより計算量が少ない
    (解説)ゲートなどの複雑な機構が増えた分、パラメータ数は通常のRNNの約4倍になり、計算コストも増えています。
  • × ゲートは2つである
    (解説)LSTMは3つです。「ゲートが2つ(忘却ゲートがない)」なのは、LSTMを簡略化したGRU(Gated Recurrent Unit)という別のモデルです。
タイトルとURLをコピーしました