勾配消失問題と活性化関数の関係

問題

以下の文章の空欄 ( あ ) ~ ( う ) に入る数式または語句の組み合わせとして最も適切なものを1つ選べ。
ディープニューラルネットワークの学習において、( あ ) を用いて勾配を計算する際、層を遡るごとに活性化関数の微分値が掛け合わされる。シグモイド関数の導関数の最大値は ( い ) であるため、層が深くなるにつれて勾配が指数関数的に減少し、入力層に近い重みの更新が進まなくなる。この問題を勾配消失問題と呼び、その対策として、入力が正の領域で微分値が常に ( う ) となるReLU(Rectified Linear Unit)などの活性化関数が広く用いられるようになった。

同じカテゴリの問題

カテゴリを選択する

他のカテゴリを選択する