Web教科書

正則化

正則化

解説

過学習を防ぐ「正則化(正規化)」とは?

機械学習のモデルが、訓練データを一生懸命覚えようとするあまり、データに含まれるノイズ(偶然の誤差)まで丸暗記してしまうことがあります。これを過学習(オーバーフィッティング)と呼びます。

過学習を防ぐために、「パラメーター(重み)」の値が大きくなりすぎないように「ペナルティ(罰則)」を与える手法を正則化と呼びます。
主にL1正則化L2正則化の2種類があります。

L1正則化(Lasso回帰):不要なものを「ゼロ」にする断捨離

L1正則化は、「一部の重みを完全に0にする」という強力な効果を持っています。

  • イメージ:不要な荷物を完全に捨てて、身軽にする「断捨離」。
  • 特徴:予測にあまり関係ない変数の重みが「0」になります。つまり、変数の数が減り(スパース化)、モデルがシンプルになります。
  • メリット:「どの変数が重要か」が分かりやすくなる(特徴量選択ができる)。
  • 適用されるアルゴリズムラッソ回帰 (Lasso)

L2正則化(Ridge回帰):突出したものを「均す」バランス調整

L2正則化は、「大きすぎる重みを全体的に小さくする(ゼロにはしない)」というペナルティを与えます。

  • イメージ:一部の能力だけが突出しないように、全体を「平均的にバランスよく育てる」。
  • 特徴:重みが0に近づきますが、完全な0にはなりません。すべての特徴量を少しずつ使いながら、極端な予測をするのを防ぎます。
  • メリット:滑らかで安定したモデルになり、予測精度が高くなりやすいです。
  • 適用されるアルゴリズムリッジ回帰 (Ridge)

まとめ

L1正則化とL2正則化は、どちらも過学習を防ぐための手法ですが、アプローチが異なります。

変数を減らしてモデルをシンプルにしたい場合はL1正則化(ラッソ回帰)、すべての変数を活かしつつ精度を高めたい場合はL2正則化(リッジ回帰)を使うと覚えておきましょう。

G検定対策

出題ポイント

  • L1正規化、L2正規化の違いをしっかり覚えておきましょう。
    項目 L1正則化 L2正則化
    別名(回帰の場合) ラッソ回帰 (Lasso) リッジ回帰 (Ridge)
    ペナルティの計算 重みの絶対値の和 重みの二乗の和
    結果の特徴 一部の重みが0になる(スパース性) 重みが全体的に小さくなる(0にはならない)
    イメージ 断捨離(不要なものを捨てる) バランス(突出を抑える)

ひっかけ対策

  • 「L1正則化はすべての重みを均一になだらかに小さくする」という記述は誤り(それはL2の特徴)。L1は「ゼロ」にする力が強いです。
タイトルとURLをコピーしました