Web教科書

勾配降下法

勾配降下法(Gradient Descent)

解説:目隠しで「谷底」を目指す

勾配降下法は、ニューラルネットワークが「誤差(損失)」を最小にするパラメータ(重み)を見つけるための最適化アルゴリズムです。

AIの学習は、よく「真っ暗闇の山で、一番低い谷底(誤差最小点)を探す」ことに例えられます。
周りは見えませんが、足元の地面の「傾き(勾配)」だけは分かります。そこで、「傾いている方向と逆(下り坂)に一歩進む」ことを繰り返せば、いつかは谷底にたどり着けるはずです。これが勾配降下法の基本的な考え方です。

重要な要素:学習率(Learning Rate)

このとき、「一歩の大きさ」を決めるのが学習率(イータ:η)です。この設定が学習の成否を分けます。

学習率の設定 どうなる?(メリット・デメリット)
大きすぎる
(大股で歩く)
谷底を飛び越えてしまい、行ったり来たりを繰り返す(発散する)。
いつまで経っても収束しない。
小さすぎる
(小股で歩く)
慎重すぎて、谷底に着くまでに膨大な時間がかかる。
また、本当の谷底ではない「小さなくぼみ(局所最適解)」にハマって抜け出せなくなるリスクがある。
適切 スムーズに谷底(大域最適解)へ到達できる。

G検定対策

出題ポイント

  • 目的:誤差関数を「最小化」するパラメータを見つけること。
  • 学習率(Learning Rate):人間が決める必要がある「ハイパーパラメータ」であり、この調整が非常に重要。
  • 課題:勾配が0になると更新が止まるため、本当の最小値ではない場所で止まる「局所最適解(Local Optima)」や、平坦な場所「鞍点(Saddle Point)」の問題がある。

ひっかけ対策

  • × 必ず最適な解(大域最適解)が見つかる
    (解説)誤りです。途中のくぼみ(局所最適解)にハマって終わる可能性があります。これを防ぐために、確率的勾配降下法(SGD)などが使われます。
  • × 誤差を最大化する
    (解説)誤りです。それは「勾配上昇法」です。ニューラルネットワークの学習は「誤差の最小化(降下)」です。
タイトルとURLをコピーしました