学習率(Learning Rate)
解説:ゴールまでの「歩幅」調整
学習率(Learning Rate)は、勾配降下法でパラメータ(重み)を更新する際に、「一度にどれだけ値を動かすか(歩幅)」を決めるハイパーパラメータです。数式では「η(イータ)」や「α(アルファ)」という記号で表されます。
この値の調整は、AIの学習スピードと精度に直結する非常にデリケートな問題です。
「歩幅」の大小による運命の違い
学習率は「大きければ早く着く」という単純なものではありません。それぞれの状態をイメージしてみましょう。
| 設定値 | 歩幅のイメージ | 起こりうる結果 |
|---|---|---|
| 大きすぎる | 大股でジャンプ |
「発散(Oscillation)」 谷底を勢いよく飛び越えてしまい、反対側の斜面へ。また飛び越えて戻って…を繰り返し、永遠に谷底(最適解)に着かない。最悪の場合、誤差が増えていく。 |
| 小さすぎる | すり足で進む |
「収束不足・局所解」 進みが遅すぎて、学習が終わらない。また、本当の谷底ではない「小さなくぼみ(局所最適解)」に一度ハマると、歩幅が小さすぎて抜け出せなくなる。 |
| 適切 | 最初は大きく 最後は小さく |
「効率的な収束」 最初は大きく進んで時間を短縮し、谷底に近づいたら歩幅を小さくして微調整するのが理想的。(学習率減衰などのテクニックを使う) |
G検定対策
出題ポイント
- 定義:パラメータ更新量の大きさを決める係数であり、人間が決める必要がある(ハイパーパラメータ)。
- トレードオフ:「大きいと発散リスク」「小さいと時間増大&局所解リスク」という二律背反の関係。
- 発展技術:ずっと固定値にするのではなく、学習状況に応じて自動で調整する手法(Adam、AdaGrad、学習率減衰など)がよく使われる。
ひっかけ対策
- × 学習率は大きいほど良い
(解説)誤りです。早く着くどころか、発散して学習が失敗します。 - × AIが自動で決定するパラメータである
(解説)誤りです。基本的には人間が設定する「ハイパーパラメータ」です。(※近年は自動探索する手法もありますが、定義としては人間が設定するものと区別されます)
