誤差関数(損失関数)
解説:AIへの「採点表」
誤差関数(Error Function)は、別名「損失関数(Loss Function)」とも呼ばれ、AIモデルが現在どれくらい「ダメか(間違っているか)」を数値化する関数です。
AIの学習とは、この「誤差関数の値(スコア)を『0(最小)』に近づけること」を目指して、パラメータ(重み)を微調整し続ける旅のようなものです。
💡 なぜ「微分可能」な関数を使うのか?
誤差を最小にする(山の谷底を目指す)ためには、「どっちに進めば坂を下れるか?」という「傾き(勾配)」を知る必要があります。
傾きを計算するには「微分」が必要なため、誤差関数には必ず微分できる(滑らかな)関数が選ばれます。
誤差を最小にする(山の谷底を目指す)ためには、「どっちに進めば坂を下れるか?」という「傾き(勾配)」を知る必要があります。
傾きを計算するには「微分」が必要なため、誤差関数には必ず微分できる(滑らかな)関数が選ばれます。
タスクによる「使い分け」が最重要
「何を予測したいか」によって、使うべき誤差関数が決まっています。この組み合わせはG検定の鉄板問題です。
| タスクの種類 | 代表的な誤差関数 | イメージ |
|---|---|---|
| 回帰問題 (数値を当てる) |
平均二乗誤差 (MSE: Mean Squared Error) |
予測した「株価」や「気温」が、正解とどれくらいズレているか(距離の二乗)を測る。 |
| 分類問題 (クラスを当てる) |
交差エントロピー誤差 (Cross-Entropy Error) |
予測した「確率分布」が、正解の分布とどれくらい似ているか(情報の食い違い)を測る。 |
G検定対策
出題ポイント
- 目的:学習のゴールは、誤差関数の値を「最小化」すること。(最大化ではない!)
- 組み合わせ:「回帰には平均二乗誤差」「分類には交差エントロピー誤差」というペアを必ず暗記する。
- 用語の揺れ:「誤差関数」「損失関数」「コスト関数」「目的関数」は、G検定レベルではほぼ同じもの(最小化すべき対象)として扱ってOKです。
ひっかけ対策
- × 誤差関数の最大化を目指す
(解説)最大化を目指すのは「尤度(もっともらしさ)」です。誤差(間違い)は最小化を目指します。 - × 分類問題に平均二乗誤差を使う
(解説)計算はできますが、精度が出にくいため一般的ではありません。「分類には交差エントロピー」が正解です。
