Web教科書

交差エントロピー

交差エントロピー誤差(Cross Entropy Error)

解説:正解への「確信度」を測る

交差エントロピー誤差は、犬か猫かを当てるような分類タスクで使われる代表的な誤差関数です。

平均二乗誤差(MSE)が「距離(ズレ)」を測るのに対し、交差エントロピーは「正解のクラスに対して、どれだけ高い確率(自信)を持てたか」を評価します。

「自信がない」と激怒する関数

この関数の最大の特徴は、「正解なのに、低い確率しか予測しなかったとき」に、とてつもなく大きなペナルティ(誤差)を与える点です。

💡 具体例:正解が「犬」の場合

AIの予測 AIの心の声 誤差の大きさ
犬である確率:99% 「絶対これだ!」 ほぼ 0 (優秀)
犬である確率:50% 「半々かな…」 0.69 (そこそこ)
犬である確率:1% 「これじゃないと思う」 4.6 (激怒!)

※対数関数(log)の性質により、確率が0に近づくほど誤差の値は急激に無限大へ発散します。
「間違っていてもいいから、正解の確率だけは上げろ!」とAIを指導するスパルタな関数です。

G検定対策

出題ポイント

  • 最強の組み合わせ:

    このセットは多クラス分類の基本として必ず暗記しましょう。

  • 起源:元々は「情報理論」における概念(情報の乱雑さや距離を表す指標)です。
  • 計算の仕組み:正解ラベル(one-hotベクトル)に対応するクラスの「対数(log)」をとってマイナスを掛けたものです。

ひっかけ対策

  • × 回帰タスクで使われる
    (解説)数値を当てる回帰では「平均二乗誤差」を使います。
  • × 正解以外の確率は無視する
    (解説)計算式上は「正解クラスの確率」だけを見て計算しますが(正解以外は0を掛けるため消える)、ソフトマックス関数とセットで使うことで、結果的に「正解の確率を上げる=不正解の確率を下げる」ことになり、全体の分布を調整します。
タイトルとURLをコピーしました