Web教科書

誤差関数

誤差関数(損失関数)

解説:AIへの「採点表」

誤差関数(Error Function)は、別名「損失関数(Loss Function)」とも呼ばれ、AIモデルが現在どれくらい「ダメか(間違っているか)」を数値化する関数です。

AIの学習とは、この「誤差関数の値(スコア)を『0(最小)』に近づけること」を目指して、パラメータ(重み)を微調整し続ける旅のようなものです。

💡 なぜ「微分可能」な関数を使うのか?
誤差を最小にする(山の谷底を目指す)ためには、「どっちに進めば坂を下れるか?」という「傾き(勾配)」を知る必要があります。
傾きを計算するには「微分」が必要なため、誤差関数には必ず微分できる(滑らかな)関数が選ばれます。

タスクによる「使い分け」が最重要

「何を予測したいか」によって、使うべき誤差関数が決まっています。この組み合わせはG検定の鉄板問題です。

タスクの種類 代表的な誤差関数 イメージ
回帰問題
(数値を当てる)
平均二乗誤差
(MSE: Mean Squared Error)
予測した「株価」や「気温」が、正解とどれくらいズレているか(距離の二乗)を測る。
分類問題
(クラスを当てる)
交差エントロピー誤差
(Cross-Entropy Error)
予測した「確率分布」が、正解の分布とどれくらい似ているか(情報の食い違い)を測る。

G検定対策

出題ポイント

  • 目的:学習のゴールは、誤差関数の値を「最小化」すること。(最大化ではない!)
  • 組み合わせ:「回帰には平均二乗誤差」「分類には交差エントロピー誤差」というペアを必ず暗記する。
  • 用語の揺れ:「誤差関数」「損失関数」「コスト関数」「目的関数」は、G検定レベルではほぼ同じもの(最小化すべき対象)として扱ってOKです。

ひっかけ対策

  • × 誤差関数の最大化を目指す
    (解説)最大化を目指すのは「尤度(もっともらしさ)」です。誤差(間違い)は最小化を目指します。
  • × 分類問題に平均二乗誤差を使う
    (解説)計算はできますが、精度が出にくいため一般的ではありません。「分類には交差エントロピー」が正解です。
タイトルとURLをコピーしました