破壊的忘却 (Catastrophic Forgetting)
解説:AIの「上書き保存」問題
破壊的忘却(カタストロフィック・フォゲッティング)は、ニューラルネットワークが新しいタスクを学習すると、それまで覚えていた以前のタスクの知識が「上書き」され、急速に忘れてしまう現象のことです。
人間であれば「自転車」に乗れるようになった後で「一輪車」の練習をしても、自転車の乗り方は忘れません。しかし、AI(特に単純なニューラルネットワーク)は、脳全体の重み(シナプス)を新しいタスクに最適化しようとして一斉に書き換えてしまうため、古い記憶が破壊されてしまうのです。
🧠 悲しいAIの性(さが)
- タスクA(犬と猫の分類)を完璧に学習する。
↓ - タスクB(車とバスの分類)を追加で学習させる。
↓ - 結果: 車とバスは見分けられるようになったが、「犬と猫」の区別が全くつかなくなっている。
これを防ぐために研究されている分野を「継続学習(Continual Learning)」と呼びます。
過学習との違い
試験では必ずと言っていいほど、他の用語とのひっかけ問題が出ます。
| 用語 | 現象 | 原因 |
|---|---|---|
| 破壊的忘却 | 新しいことを覚えると、昔のことを忘れる。 | パラメータの上書き更新。 |
| 過学習 (Overfitting) |
訓練データに適合しすぎて、未知のデータに対応できなくなる。 | 学習のやりすぎ、モデルが複雑すぎる。 |
G検定対策
出題ポイント
- 現象:「マルチタスク学習」や「追加学習」を行おうとした際に、過去の学習結果が損なわれる現象。
- 解決策:過去の重要な重みを固定する「EWC (Elastic Weight Consolidation)」や、過去のデータを一部保存して混ぜて学習する手法などが研究されている(継続学習)。
ひっかけ対策
- × 過学習(Overfitting)のことである
(解説)全く別の現象です。「昔のことを忘れるのが破壊的忘却」「応用が効かなくなるのが過学習」と区別しましょう。 - × 人間と同じように、古い記憶を保持したまま学習できる
(解説)AIにとってそれは非常に難しい課題であり、まだ完全には解決されていません。
