g-kentei-kei

Web教科書

ソフトマックス関数

ソフトマックス関数(Softmax Function) 解説:スコアを「確率」に変える変換機 ソフトマックス関数は、ニューラルネットワークの「出力層」で使われる関数です。特に、3つ以上の選択肢から正解を選ぶ「多クラス分類」において必須となり...
Web教科書

Leaky ReLU関数

Leaky ReLU関数(リーキー・レル) 解説:ReLUの「弱点」を克服した改良版 Leaky ReLU(LReLU)は、現在主流であるReLU関数の「ある致命的な弱点」を修正するために考案された改良版です。「Leaky」とは「水漏れする...
Web教科書

ReLU関数

ReLU関数(ランプ関数 / 正規化線形関数) 解説:最強の「スイッチ」 ReLU(Rectified Linear Unit:レル)は、現在ディープラーニングの中間層で最も標準的に使われている活性化関数です。「正規化線形関数」や「ランプ関...
Web教科書

tanh関数

tanh関数(ハイパボリックタンジェント) 解説:シグモイド関数の進化版 tanh関数(Hyperbolic tangent function:双曲線正接関数)は、シグモイド関数によく似たS字カーブを描く活性化関数です。 シグモイド関数との...
Web教科書

シグモイド関数

シグモイド関数(Sigmoid Function) 解説:確率への変換装置 シグモイド関数は、どんな入力値が来ても、出力を必ず「0から1」の範囲にギュッと圧縮する性質を持つS字型の関数です。 この「0〜1」という範囲は、そのまま「確率(0%...
Web教科書

活性化関数

活性化関数(アクティベーション・ファンクション) 解説:ニューロンの「やる気スイッチ」 活性化関数は、ニューロン(ノード)に入ってきた情報を、「次の層にどれくらいの強さで伝えるか」を決定する関数です。 人間の脳細胞(ニューロン)は、電気信号...
Web教科書

TPU

TPU (Tensor Processing Unit) 解説 TPU(Tensor Processing Unit)は、Googleが自社のディープラーニング(特にTensorFlow)を高速化するために独自開発した「AI専用のプロセッサ...
Web教科書

GPU

GPU (Graphics Processing Unit) 解説 GPU(画像処理装置)は、もともと3Dゲームなどの映像を描画するために開発されたパーツです。しかし現在では、その圧倒的な計算能力を買われ、AI(ディープラーニング)の計算リ...
Web教科書

CPU

CPU (Central Processing Unit) 解説 CPU(中央演算処理装置)は、パソコンやスマートフォンの「頭脳」にあたるパーツで、OSの起動からアプリの実行まで、あらゆる処理をこなす汎用的な計算装置です。 「数人の天才数学...
Web教科書

ニューラルネットワークの階層構造

隠れ層・入力層・出力層 解説:データの「料理」プロセス ニューラルネットワークは、データを受け取ってから結果を出すまでを、役割の異なる3種類の「層(レイヤー)」のリレー形式で行います。 これをレストランの厨房に例えると、それぞれの役割は以下...