交差エントロピー誤差(Cross Entropy Error)
解説:正解への「確信度」を測る
交差エントロピー誤差は、犬か猫かを当てるような「分類タスク」で使われる代表的な誤差関数です。
平均二乗誤差(MSE)が「距離(ズレ)」を測るのに対し、交差エントロピーは「正解のクラスに対して、どれだけ高い確率(自信)を持てたか」を評価します。
「自信がない」と激怒する関数
この関数の最大の特徴は、「正解なのに、低い確率しか予測しなかったとき」に、とてつもなく大きなペナルティ(誤差)を与える点です。
💡 具体例:正解が「犬」の場合
| AIの予測 | AIの心の声 | 誤差の大きさ |
|---|---|---|
| 犬である確率:99% | 「絶対これだ!」 | ほぼ 0 (優秀) |
| 犬である確率:50% | 「半々かな…」 | 0.69 (そこそこ) |
| 犬である確率:1% | 「これじゃないと思う」 | 4.6 (激怒!) |
※対数関数(log)の性質により、確率が0に近づくほど誤差の値は急激に無限大へ発散します。
「間違っていてもいいから、正解の確率だけは上げろ!」とAIを指導するスパルタな関数です。
G検定対策
出題ポイント
- 最強の組み合わせ:
- 出力層:ソフトマックス関数(確率に変換)
- 誤差関数:交差エントロピー誤差(確率の評価)
このセットは多クラス分類の基本として必ず暗記しましょう。
- 起源:元々は「情報理論」における概念(情報の乱雑さや距離を表す指標)です。
- 計算の仕組み:正解ラベル(one-hotベクトル)に対応するクラスの「対数(log)」をとってマイナスを掛けたものです。
ひっかけ対策
- × 回帰タスクで使われる
(解説)数値を当てる回帰では「平均二乗誤差」を使います。 - × 正解以外の確率は無視する
(解説)計算式上は「正解クラスの確率」だけを見て計算しますが(正解以外は0を掛けるため消える)、ソフトマックス関数とセットで使うことで、結果的に「正解の確率を上げる=不正解の確率を下げる」ことになり、全体の分布を調整します。
