Web教科書

GRU

Gated Recurrent Unit (GRU)

解説:LSTMを「断捨離」して高速化したモデル

Gated Recurrent Unit(GRU)は、2014年に提案された、LSTMの改良版モデルです。

LSTMは非常に高性能でしたが、構造が複雑で計算に時間がかかるという欠点がありました。GRUは、LSTMの性能を保ちつつ、構造をシンプルにすることで「計算速度の向上」「パラメータ数の削減」を実現しました。

LSTM vs GRU 比較表

比較項目 LSTM (兄) GRU (弟)
ゲート数 3つ
(入力・忘却・出力)
2つ
(更新・リセット)
状態変数 2本
(セル状態 + 隠れ状態)
1本
(隠れ状態のみ)
計算コスト 重い(パラメータ多い) 軽い(パラメータ少ない)
→ 学習が速い
適した場面 大規模データ、非常に複雑なタスク 中小規模データ、計算リソース節約時
GRUの内部構造図

G検定対策

出題ポイント

  • 構造の特徴:「LSTMを簡略化したもの」であり、ゲートが「更新ゲート・リセットゲート」の2つしかないこと。
  • 変数の違い:LSTMにあった「セル状態(Cell State)」が存在しないこと。
  • メリット:パラメータ数が少ないため、計算量が少なく、データセットが小さくても過学習しにくい(収束が速い)。

ひっかけ対策

  • × GRUには忘却ゲートがある
    (解説)忘却ゲートの機能は「更新ゲート」の中に組み込まれました。名称として存在するのはLSTMです。
  • × GRUはLSTMより精度が常に低い
    (解説)タスクによってはLSTMと同等か、それ以上の性能を出すことも多いです。「簡易版だから低性能」という思い込みは捨てましょう。
タイトルとURLをコピーしました