Web教科書

多層パーセプトロン

多層パーセプトロン(MLP)

解説:単純パーセプトロンの進化形

多層パーセプトロン(MLP: Multi-Layer Perceptron)は、その名の通り、単純パーセプトロンを何層にも重ねてパワーアップさせたニューラルネットワークです。

最大の特徴は、入力層と出力層の間に隠れ層(中間層)を持っていることです。この隠れ層があるおかげで、単純パーセプトロンでは絶対に解けなかった「XOR問題(排他的論理和)」などの複雑な問題を解けるようになり、第2次AIブームを牽引しました。

比較項目 単純パーセプトロン 多層パーセプトロン (MLP)
構造 入力層 → 出力層
(2層のみ)
入力層 → 隠れ層 → 出力層
(3層以上)
能力 線形分離のみ
(直線を1本引くだけ)
非線形分離が可能
(ぐにゃぐにゃした境界線を引ける)
解ける問題 AND, OR AND, OR, XOR (排他的論理和)

なぜ「XOR」が解けるのか?(重要)

単に層を増やしただけでは意味がありません。隠れ層で「非線形活性化関数シグモイド関数ReLU関数など)」を使うことが絶対条件です。

これにより、直線しか引けなかったグラフ上で「曲線を引く(空間を歪める)」ことができるようになり、白と黒が複雑に入り組んだデータでも綺麗に分けられるようになります。

G検定対策

出題ポイント

  • 構造の定義:「入力層、隠れ層(中間層)、出力層」から成るネットワークであること。
  • 歴史的意義:単純パーセプトロンの課題であった「XOR問題」を解決し、AI冬の時代を終わらせた。
  • 学習方法:一般的に「誤差逆伝播法(バックプロパゲーション)」を用いて学習する。
  • 万能近似定理:隠れ層があれば、どんな複雑な関数(連続関数)でも近似できる能力を持つこと。

ひっかけ対策

  • 「線形関数」の罠:
    「隠れ層の活性化関数をすべて線形関数(ただの掛け算)にしても、層を増やせば性能は上がる?」 → × 間違い。
    線形関数は何回重ねても結局「1つの線形関数」にしかならないため、単純パーセプトロンと性能が変わらなくなります。「非線形関数」が必須です。
タイトルとURLをコピーしました