Web教科書

シグモイド関数

シグモイド関数(Sigmoid Function)

解説:確率への変換装置

シグモイド関数は、どんな入力値が来ても、出力を必ず「0から1」の範囲にギュッと圧縮する性質を持つS字型の関数です。

この「0〜1」という範囲は、そのまま「確率(0%〜100%)」として解釈できるため、AIが「これは猫である確率:80%(0.8)」といった判定を行う際に非常に便利です。そのため、古くからニューラルネットワークの活性化関数として主役級の扱いを受けてきました。

最大の弱点:「勾配消失問題」

しかし、層を深く重ねるディープラーニングにおいては、「入力が大きすぎたり小さすぎたりすると、学習がストップする」という致命的な欠点があります。

学習が止まる理由(勾配消失)
シグモイド関数のグラフ(上の図)を見てください。
左右の端の方に行くと、カーブがほぼ「平ら(傾きゼロ)」になっています。
AIの学習(誤差逆伝播法)は「坂の傾き」を頼りに進むため、傾きがゼロになると「どっちに進めばいいかわからない」状態になり、学習が完全に停止してしまいます。これが勾配消失問題です。
項目 特徴
出力範囲 0 〜 1
(確率として扱いやすい)
グラフの形状 滑らかなS字カーブ。
点 (0, 0.5) を中心とした点対称。
現在の用途 主に「出力層」で使用。
中間層では「勾配消失」を避けるため、ReLU関数を使うのが一般的。

G検定対策

出題ポイント

  • グラフの中心点:「原点(0, 0)」ではなく、「(0, 0.5)」を通る点対称なグラフであることを覚えておきましょう。
  • 主な用途:「二値分類(Yes/No)の出力層」で使われます。
  • デメリット:入力の絶対値が大きいと微分値(傾き)が0に近づき、勾配消失問題を引き起こすこと。

ひっかけ対策

  • × 原点対称である
    (解説)原点(0, 0)を中心に対称なのは「tanh関数」です。シグモイドは少し上に浮いています。
  • × 中間層に最適である
    (解説)かつては使われていましたが、現在はReLU関数の方が推奨されます。「歴史的に使われてきた」という文脈なら正解ですが、「最新の推奨」としては間違いです。
タイトルとURLをコピーしました