g-kentei-kei

Web教科書

微分・偏微分

微分・偏微分を理解する 微分・偏微分は、G検定でも頻出の数学基礎です。特に機械学習では、損失関数を最小化するために勾配(微分)を使うため、概念を理解しておくことが重要です。 微分は「変化の割合」、偏微分は「多変数のうち1つだけを変化させたと...
Web教科書

確率と期待値

確率・期待値を理解する 確率・期待値は、G検定でも頻出の基礎統計です。特に期待値は「平均的にどれくらいの結果になるか」を表す重要な概念で、機械学習モデルの評価や意思決定にも深く関わります。 確率は「起こりやすさ」、期待値は「平均的な結果」を...
Web教科書

共分散

共分散を理解する 共分散は、2つの数値データがどのように一緒に変動しているかを表す指標です。相関係数の“元”となる概念であり、G検定でも頻出の統計用語です。 共分散の目的は「2つの変数が同じ方向に動くのか、逆方向に動くのかを知ること」です。...
Web教科書

相関係数

相関係数を理解する 相関係数は、2つの数値データの関係性を−1 〜 +1 の数値で表す指標です。散布図とセットで理解することで、データの関係性をより深く読み取れるようになります。 相関係数の目的は「2つの変数の関係の強さと向きを数値で表すこ...
Web教科書

分散と標準偏差

分散と標準偏差の違いを理解する この記事では分散と標準偏差はどちらもデータのばらつきを数値化したものですが似ている計算式のため混同しやすいです。 両者の違いは計算式の考え方を理解することで簡単に覚えることができます。 分散が理解できると、標...
Web教科書

マルコフ性

マルコフ性(Markov Property) 解説 マルコフ性とは、「未来の状態は、『現在の状態』のみによって決まり、過去の履歴(どうやってそこに来たか)には一切影響されない」という性質のことです。 サイコロに「記憶」はない 最も分かりやす...
Web教科書

マルコフ決定過程

マルコフ決定過程(MDP:Markov Decision Process) 解説 マルコフ決定過程(MDP)とは、強化学習の問題を数学的に表現するための「舞台設定」や「ルールブック」のようなものです。 「マルコフ性(未来は現在のみに依存する...
Web教科書

REINFORCE

REINFORCE (Monte Carlo Policy Gradient) 解説 REINFORCEとは、方策勾配法の中でも最も基礎的なアルゴリズムで、「モンテカルロ法」ベースの学習手法です。 「テストが終わってから、まとめて見直す」 ...
Web教科書

方策勾配法

方策勾配法 (Policy Gradient Method) 解説 方策勾配法とは、強化学習において、エージェントの行動指針である「方策(Policy:パイ π)」を、ニューラルネットワークなどのパラメータで直接表現し、報酬が増える方向にそ...
Web教科書

バンディットアルゴリズム

バンディットアルゴリズム(Bandit Algorithm) 解説 バンディットアルゴリズムは、「複数の選択肢の中から、どれを選べば最も報酬(利益)が得られるか」を、実際に試行しながら効率よく見つけ出すための手法です。 名前の由来はカジノの...