G検定最新シラバス(G2024#6)チートシート

G検定最新シラバス(G2024#6から適用)をもとに全キーワードのチートシートを作成しています。
よくある試験対策のポケット本のように全体の復習にも活用ください。

人工知能の基礎と動向


1. 人工知能の定義

AIのレベル分類(4段階)

試験頻出。上位ほど高度で、下位の能力を内包する。

  1. 単純な制御プログラム:条件分岐のみ。知能とは呼べないが「AIっぽく見える」製品も多い
  2. 古典的な人工知能:探索・推論・知識表現を使う。ルールベース。エキスパートシステムなど
  3. 機械学習:データから自動でルールを学習。人手でルールを書かなくてよい
  4. 深層学習(ディープラーニング):多層ニューラルネットワークによる機械学習の一手法

AI効果

AIがあるタスクを達成すると「それは本当の知能ではない」と評価が下がる現象。
→ 知能の定義が常に後退し続けるため、「AIは永遠に知能に達しない」という逆説になる。

💡 AI効果についての詳細はこちらを参考にしてください:
AI効果とは何か?

💡 強いAI vs 弱いAI

説明 強いAI 弱いAI
定義 人間と同等の汎用的な知性を持つAI 特定タスクに特化したAI
現状 まだ実現していない 現在普及しているAIはすべてこちら
SF上の汎用AI 画像認識・翻訳・AlphaGoなど

💡 強いAI・弱いAIについての詳細はこちらを参考にしてください:
強いAIと弱いAIの違い


2. 人工知能分野で議論される問題

シンギュラリティ

AIが人間の知能を超え、自ら更に高度なAIを開発できるようになる転換点。Ray Kurzweilが2045年と予測。
試験では「技術的特異点」という言い方も出る。

💡 シンギュラリティについての詳細はこちらを参考にしてください:
シンギュラリティ(技術的特異点)

チューリングテスト

人間とAIの会話を審査員が区別できなければ、そのAIは知的であるとみなす検証方法(Alan Turing, 1950)。
ローブナーコンテストはこれを競技化した大会。

💡 チューリングテストについての詳細はこちらを参考にしてください:
チューリングテスト

中国語の部屋

部屋の中の人が中国語のルールに従ってやり取りできても、意味を「理解」しているわけではない、という思考実験(John Searle)。
→ 現在のAIは「処理はできるが理解はしていない」という批判の根拠。

💡 中国語の部屋についての詳細はこちらを参考にしてください:
中国語の部屋

フレーム問題

ある行動が世界に与える変化のうち「何が変わり、何が変わらないか」を識別できないAIの根本的問題。
現実世界の複雑さに対し、ルールベースAIが対処できない理由のひとつ。

💡 フレーム問題についての詳細はこちらを参考にしてください:
フレーム問題

シンボルグラウンディング問題

記号(言語・概念)と現実世界の意味を結びつけられない問題。
例:「リンゴ」という単語の意味を、実物を見ずに記号だけで理解できるか?

💡 シンボルグラウンディング問題についての詳細はこちらを参考にしてください:
シンボルグラウンディング問題(記号接地問題)

💡 トイ・プロブレムと知識獲得のボトルネック

  • トイ・プロブレム:実験室では解けるが現実には通用しない「おもちゃの問題」
  • 知識獲得のボトルネック:エキスパートシステムの限界。専門家の知識を手動でルール化するのに膨大なコストがかかる問題
    → この2つが第二次AIブームの終焉(AIの冬)の原因となった

3. 探索・推論

💡 幅優先探索 vs 深さ優先探索

幅優先探索(BFS)

  • 根に近い順(浅い順)に探索する
  • 最短経路を保証できる
  • メモリ消費が大きい

深さ優先探索(DFS)

  • 可能な限り深く掘り下げてから戻る
  • メモリ効率は良い
  • 最短路を保証しない

ブルートフォース:全組み合わせを総当たりで探索。確実だが計算量が爆発的に増える。

ゲームAIの探索手法

Mini-Max法:自分の利得を最大化し、相手の利得を最小化する手法。ゲームの木をすべて展開する。
αβ法:Mini-Max法の枝刈り版。明らかに選ばれない枝を省略して効率化。結果はMini-Maxと同じ。

モンテカルロ法:乱数を使ったランダムシミュレーションで近似解を求める手法。AlphaGo以前の囲碁AIで活躍。


4. 知識表現とエキスパートシステム

エキスパートシステムとは

専門家(エキスパート)の知識をIF-THENルールで記述し、推論エンジンで問題を解くシステム。
第二次AIブームの主役だったが、知識獲得のボトルネック問題で衰退。

主要な知識表現

代表的なエキスパートシステム

システム 分野 ポイント
MYCIN(マイシン) 感染症診断 医療AIの先駆け
DENDRAL 化学構造分析 最初期の成功例
ELIZA(イライザ) 対話 パターンマッチングで心理療法士を模倣。理解はしていない
ワトソン(Watson) QA IBMのシステム。Jeopardy!で人間に勝利
東ロボくん 大学入試 国立情報学研究所のプロジェクト。東大合格は断念
Cycプロジェクト 常識知識 常識を大規模DBとして構築する試み

5. 機械学習

💡 機械学習とルールベースの違い

説明 ルールベース 機械学習
ルールの作り方 人間が手動で記述 データから自動で学習
強み 説明可能・予測可能 複雑なパターンを発見できる
弱み 知識獲得コストが高い 大量データが必要、解釈が難しい

機械学習が注目された背景(3点セット)

  1. ビッグデータの普及(Volume・Variety・Velocityの3V)
  2. 計算機性能(GPUなど)の向上
  3. アルゴリズムの改善

次元の呪い

特徴量(次元)が増えるほど、データが空間内で疎になり、学習に必要なデータ量が指数的に増える問題。
→ 次元削減(PCAなど)で対処する。

💡 次元の呪いについての詳細はこちらを参考にしてください:
次元の呪い


6. ディープラーニング

歴史の流れ(試験頻出)

  • LeNet(1989, Yann LeCun):CNNの原型。手書き数字認識
  • ネオコグニトロン(福島邦彦):LeNetの前身。視覚野の階層構造を模倣
  • ImageNet / ILSVRC:100万枚超の大規模画像データセット&コンテスト
  • AlexNet(2012):ILSVRCでCNNが圧倒的勝利 → ディープラーニングブームの火付け役
  • AlphaGo(2016):深層強化学習で囲碁プロ棋士に初勝利
  • 生成AI:LLM・画像生成モデルなど。現在の第四次AIブームの中心

💡 ディープラーニング全般についての詳細はこちらを参考にしてください:
ディープラーニングとは何か?

💡 古典的機械学習 vs ディープラーニング

説明 古典的機械学習 ディープラーニング
特徴量 人間が設計(特徴エンジニアリング) 自動で学習(End-to-End)
データ量 少量でも動作可 大量のデータが必要
計算リソース 少ない GPUなど大きなリソースが必要
解釈性 比較的高い ブラックボックスになりやすい
得意分野 構造化データ 画像・音声・テキストなど非構造化データ

機械学習の概要


7. 教師あり学習

データに「正解ラベル(教師信号)」が付いている学習。入力 → 出力のマッピングを学ぶ。

💡 教師あり学習についての詳細はこちらを参考にしてください:
教師あり学習

💡 問題の種類:回帰 vs 分類

説明 回帰 分類
出力 連続値(数値) 離散値(クラス)
売上予測・気温予測 スパム判定・画像認識
評価指標 MSE・RMSE・MAEなど 正解率・F値・AUCなど

主要アルゴリズム

線形モデル

  • 線形回帰:入力と出力の線形関係をモデル化。最もシンプルな回帰手法
  • 単回帰分析:説明変数が1つの線形回帰
  • 重回帰分析:説明変数が複数の線形回帰
  • ロジスティック回帰:名前に「回帰」とあるが分類手法。出力を確率(0〜1)に変換

決定木・アンサンブル

💡 バギング vs ブースティング

説明 バギング ブースティング
学習の仕方 並列に学習(独立) 逐次的に学習(前の誤りを修正)
代表例 ランダムフォレスト 勾配ブースティング
過学習への強さ 強い やや弱い(ハイパーパラメータ調整が重要)

その他

  • SVM(サポートベクターマシン):マージン最大化でクラスを分ける。カーネルトリックで非線形にも対応
  • カーネルトリック:低次元では線形分離できないデータを高次元に写像して分離する技法
  • k-NN(k近傍法):多クラス分類に使用。最近傍のk個の多数決でクラスを決定

時系列モデル


8. 教師なし学習

正解ラベルなしで、データの構造やパターンを発見する学習。

💡 教師なし学習についての詳細はこちらを参考にしてください:
教師なし学習

問題の種類

クラスタリング(グループ化)

  • k-means法:k個のクラスタに分ける。重心を繰り返し更新。k(クラスタ数)は事前指定が必要
  • ウォード法:階層的クラスタリングの手法。クラスタ内分散を最小化するように統合
  • デンドログラム(樹形図):階層的クラスタリングの結果を木構造で可視化したもの

次元削減(可視化・圧縮)

推薦システム


9. 強化学習

エージェントが環境と相互作用し、報酬を最大化する行動方策を学ぶ。

💡 強化学習についての詳細はこちらを参考にしてください:
強化学習

基本概念

  • エージェント:行動する主体
  • 環境:エージェントが作用する対象
  • 状態(State):現在の環境の状況
  • 行動(Action):エージェントが取れる選択肢
  • 報酬(Reward):行動の結果として得られるフィードバック
  • 割引率(γ):将来の報酬を現在価値に割り引く係数。0〜1で指定
  • マルコフ決定過程(MDP):強化学習の理論的枠組み。「現在の状態だけで次の状態が決まる」マルコフ性を仮定

主要手法

価値ベース

  • Q学習:Q値を更新して最適な行動を学ぶ。モデルフリーな代表手法
  • SARSA:Q学習と似るが、実際に選んだ行動でQ値を更新するオンポリシー手法

方策ベース

  • REINFORCE:方策を直接最適化する手法
  • Actor-Critic:Actorが行動を選び、Criticが評価。価値ベースと方策ベースの融合
  • 方策勾配法:報酬を増やす方向に方策パラメータを更新

探索戦略

  • ε-greedy方策ε(小さい確率)でランダム探索し、残りは最善行動を選ぶ。探索と活用のバランス
  • UCB方策:訪問回数が少ない行動を優先的に選ぶ(Upper Confidence Bound)
  • バンディットアルゴリズム:多腕バンディット問題(試行と報酬の最適化)に対する手法群

10. モデルの選択・評価

汎化と過学習

💡 バイアスとバリアンスのトレードオフ

  • バイアス(偏り):モデルが単純すぎて正解に届かないズレ。過少適合の原因
  • バリアンス(分散):モデルがデータのノイズに過剰反応するばらつき。過学習の原因
  • バイアスを下げると↑バリアンスが上がる。適切な複雑さのモデルを選ぶことが重要

検証手法

回帰の評価指標

分類の評価指標

混同行列(Confusion Matrix)の4要素:

  • 正解率(Accuracy):(TP+TN) / 全体。クラス不均衡時は信頼できない
  • 適合率(Precision):TP / (TP+FP)。「Positiveと予測したうち正解の割合」
  • 再現率(Recall):TP / (TP+FN)。「実際のPositiveを見つけられた割合」
  • F値:適合率と再現率の調和平均。両方のバランスを見る

ROC曲線・AUC

  • ROC曲線:閾値を変化させたときのTPR(再現率)とFPR(偽陽性率)をプロット
  • AUC:ROC曲線の面積。1.0が完璧、0.5はランダムと同等

モデル選択の指標

ディープラーニングの概要


11. ニューラルネットワークとディープラーニング

ニューラルネットワークの基本構造

  • 入力層:データを受け取る
  • 隠れ層(中間層):特徴を抽出・変換する。複数層あるのがディープラーニング
  • 出力層:予測結果を出力する
  • 重み(パラメータ):層間の結合の強さ。学習で更新される
  • 単純パーセプトロン:入力を線形結合して閾値で分類。線形分離可能な問題しか解けない
  • 多層パーセプトロン(MLP):隠れ層を複数持つ。非線形問題にも対応できる

12. 活性化関数

ニューラルネットワークに非線形性を与える関数。これがないと何層重ねても線形変換と同じ。

主要な活性化関数

  • シグモイド関数:0〜1の範囲。二値分類の出力層でよく使われる。勾配消失問題が起きやすい
  • tanh関数:-1〜1の範囲。シグモイドより学習しやすいが、勾配消失問題は残る
  • ReLU関数:max(0, x)。計算が速く勾配消失が起きにくい。現在のDLで最もよく使われる
  • Leaky ReLU関数:負の値を0にせず、小さな傾きを持たせる。Dying ReLUを防ぐ
  • ソフトマックス関数:全出力の合計が1になるよう正規化。多クラス分類の出力層で使用

13. 誤差関数(損失関数)


14. 正則化

  • L1正則化(ラッソ回帰):重みの絶対値の和をペナルティに加える。不要な特徴の重みを0にできる(スパース化)
  • L2正則化(リッジ回帰):重みの二乗和をペナルティに加える。重みを小さくするが0にはしない
  • ドロップアウト:学習時にランダムにニューロンを無効化。アンサンブル効果を疑似的に得る

15. 誤差逆伝播法(バックプロパゲーション)


16. 最適化手法

主要な最適化アルゴリズム

重要な概念

ディープラーニングの要素技術


17. 全結合層

すべてのニューロンが前後の層と結合している層(Dense層とも呼ぶ)。

  • 全結合層の重み(パラメータ数):入力ノード数 × 出力ノード数 + バイアス数。入力が大きいとパラメータが爆発的に増える
  • 線形関数:全結合層の演算は行列積+バイアス(線形変換)。活性化関数で非線形にする
  • 主に最終段の分類・回帰に使われる

18. 畳み込み層(CNN)

画像など空間的な構造を持つデータの処理に特化した層。

💡 CNNの仕組みについての詳細はこちらを参考にしてください:
畳み込みニューラルネットワーク(CNN)の基本

基本的な仕組み

  • フィルタ(カーネル):小さな行列。入力データをスキャンして特徴を抽出
  • 畳み込み操作:フィルタを画像上でスライドさせながら積和演算
  • 特徴マップ:畳み込み演算の出力。どこに特徴があるかを表す
  • パディング:入力の周囲に0を埋めて、出力サイズを調整する
  • ストライド:フィルタをスライドさせる間隔。大きいと出力が小さくなる

💡 全結合層 vs 畳み込み層

説明 全結合層 畳み込み層
パラメータ数 多い(すべて結合) 少ない(フィルタを共有)
位置情報 無視 保持(空間的な局所性を活用)
得意なデータ 構造化データ・ベクトル 画像・音声など空間データ

発展的な畳み込み


19. 正規化層

学習を安定させ、収束を速めるために各層の出力を正規化する層。

💡 正規化手法の比較

手法 正規化する単位 特徴・向いている場面
バッチ正規化 バッチ内の同チャンネル 最も一般的。ミニバッチが十分大きい場合に効果的
レイヤー正規化 1サンプル内の全特徴 バッチサイズに依存しない。Transformerで標準
インスタンス正規化 1サンプルの各チャンネル 画像スタイル変換などに使用
グループ正規化 チャンネルをグループに分けて正規化 バッチサイズが小さいときに有効
  • バッチ正規化は学習時と推論時で挙動が違う(学習時は実際のバッチ統計、推論時は移動平均を使用)点に注意

20. プーリング層

特徴マップのサイズを縮小し、位置変動に対するロバスト性を高める層。

  • 最大値プーリング(Max Pooling):領域内の最大値を取る。最もよく使われる
  • 平均値プーリング(Average Pooling):領域内の平均値を取る
  • グローバルアベレージプーリング(GAP):特徴マップ全体の平均を1つのスカラーに。全結合層の代替として使用

💡 プーリング層の役割

  1. 次元削減:特徴マップのサイズを小さくし計算量を減らす
  2. 不変性の獲得:対象が少しずれていても同じ特徴を検出できる(平行移動不変性)

21. スキップ結合

前の層の出力をいくつかの層を飛び越えて後の層に直接加算する接続。

  • ResNet(残差ネットワーク):スキップ結合の代表モデル。「残差(差分)を学習する」という発想
  • 役割:勾配消失問題を解決。100層を超える深いネットワークの学習を可能にした
  • スキップ結合によって勾配が直接流れるルートが確保されるため、深くても学習が進む

22. 回帰結合層(RNN)

時系列・系列データを扱うための、過去の状態を保持できる層。

💡 RNNの基本についての詳細はこちらを参考にしてください:
RNN(リカレントニューラルネットワーク)

基本的な仕組み

  • リカレントニューラルネットワーク(RNN):前のタイムステップの出力を次の入力に加える
  • 時系列データ:文章・音声・株価など、順序に意味があるデータ
  • BPTT(Backpropagation Through Time):RNNの学習アルゴリズム。時間方向に誤差を逆伝播
  • 教師強制:学習時に前のステップの正解を次のステップの入力に使うことで収束を速める
  • エルマンネットワーク / ジョルダンネットワーク:初期のRNNの代表形

RNNの問題点と解決策

RNNは長い系列では勾配消失/爆発問題が深刻になり、長期の依存関係を学べない。

💡 LSTM vs GRU

説明 LSTM GRU
ゲート数 3つ(入力・忘却・出力) 2つ(リセット・更新)
パラメータ数 多い 少ない
性能 一般的に高い 軽量で同等の性能が出ることも多い

23. Attention

系列内のどの部分に注目すべきかを学習するメカニズム。

Attentionの基本

  • RNNの問題点:長い系列では初期の情報が薄れる(情報のボトルネック)
  • Attentionによって「どの入力部分に注目するか」を動的に学習できる
  • キー(Key)・クエリ(Query)・バリュー(Value):Attentionの3つの構成要素。クエリとキーの類似度でバリューを重み付け

Attentionの種類

  • Self-Attention:同じ系列内の各要素同士の関係を計算。Transformerの中心
  • Source-Target Attention(Encoder-Decoder Attention):エンコーダの出力にデコーダがAttentionする
  • Multi-Head Attention:Attentionを複数の部分空間で並列に実行。異なる視点の注意を同時に学習

Seq2SeqとTransformer

  • Seq2Seq:エンコーダが入力を圧縮し、デコーダが出力を生成するRNNベースの枠組み。翻訳など
  • Transformer:Attentionのみで構成(RNNなし)。並列処理が可能で現代のNLPの基盤
  • 位置エンコーディング:TransformerはRNNと違い順序情報を持たないため、位置情報を埋め込みに加算

24. オートエンコーダ

入力を低次元に圧縮(エンコード)し、元に戻す(デコード)ことで特徴表現を学ぶモデル。

  • 用途:次元削減・異常検知・事前学習・生成モデルの基礎
  • 積層オートエンコーダ:複数のオートエンコーダを積み重ねて事前学習に使う
  • 変分オートエンコーダ(VAE):潜在空間を確率分布(正規分布)として学習。データ生成が可能
  • VQ-VAE:潜在空間を離散的なコードブックで表現する拡張版
  • β-VAE / info VAE:VAEの正則化バランスを調整した改良版

💡 オートエンコーダ vs VAE

説明 オートエンコーダ VAE
潜在空間 点(ベクトル) 確率分布(平均+分散)
データ生成 できない(圧縮が目的) できる(分布からサンプリング)
用途 次元削減・異常検知 生成モデル・データ補完

25. データ拡張(Data Augmentation)

学習データを人工的に増やし、モデルの汎化性能を高める手法。

主な手法

  • Random Flip / Rotate / Crop:画像に対する基本的な拡張
  • Mixup:2枚の画像と教師ラベルを線形補間して新しいサンプルを生成
  • CutMix:ある画像の一部を別の画像で置き換え、ラベルも混合

ディープラーニングの応用例


26. 画像認識

💡 画像認識タスクの比較

タスク 概要 出力
画像分類 画像全体が何かを識別 クラスラベル
物体検出 物体の位置(バウンディングボックス)も特定 クラス+座標
物体識別 同クラス内の個体を識別(誰の顔か等) 個体ID
セマンティックセグメンテーション ピクセルごとにクラスを分類。同クラスは区別しない ピクセル単位クラス
インスタンスセグメンテーション ピクセルごと+同クラスの個体も区別 ピクセル単位クラス+ID
パノプティックセグメンテーション セマンティック+インスタンスを統合 全画素の統合ラベル

💡 物体検出の歴史についての詳細はこちらを参考にしてください:
物体検出モデルの進化と歴史(R-CNNからYOLOまで)


27. 自然言語処理(NLP)

💡 NLPの活用タスクの詳細はこちらを参考にしてください:
自然言語処理の活用タスク(感情分析・機械翻訳など)

テキストの特徴表現

単語ベクトル(分散表現

  • word2vec:ニューラルネットで単語の分散表現を学習。CBOW と Skip-gram の2方式
  • fastText:word2vecを拡張し、サブワード(文字n-gram)を活用。未知語にも対応

💡 BERTとGPTの違い

説明 BERT GPT
Transformerの部分 エンコーダのみ デコーダのみ
学習方法 双方向(文の前後を同時に見る) 自己回帰(左から右に予測)
得意タスク 文章理解・分類・QA テキスト生成・対話

28. 音声処理

音声認識・音声合成・感情分析などに用いられる技術。


29. 深層強化学習

深層学習と強化学習を組み合わせ、複雑な問題に対応する手法。

  • DQN(Deep Q-Network):Q学習にDNNを組み合わせた手法。Atariゲームを人間以上にプレイ
  • RLHF(人間のフィードバックによる強化学習):人間の評価を報酬にして言語モデルを調整。ChatGPTに活用

30. データ生成

💡 GAN vs Diffusion Model

説明 GAN Diffusion Model
仕組み 生成器と識別器の競合 ノイズ除去を反復学習
画像品質 高い より高い(現在の主流)
学習の安定性 不安定(モード崩壊の問題) 安定
生成速度 速い 遅い(反復ステップが多い)

31. 転移学習ファインチューニング

大量データで事前学習した知識を、別のタスクに活用する手法。

💡 Few-shot / One-shot / Zero-shot

説明 Zero-shot One-shot Few-shot
追加データ数 0件 1件 数件
概要 学習なしで新タスクを実行 1例だけで学習 少数例で学習

32. マルチモーダル

画像・テキスト・音声など複数のモダリティ(情報形式)を組み合わせるモデル。


33. モデルの解釈性

ブラックボックスなDLモデルの予測根拠を解釈・説明する技術。

💡 説明可能AIについての詳細はこちらを参考にしてください:
説明可能AI(XAI) / Grad-CAM


34. モデルの軽量化

計算リソース・メモリが制限される環境でモデルを動かすための圧縮・効率化手法。

💡 軽量化手法の比較

手法 アプローチ 特徴
プルーニング 不要な重みを削除 構造自体が小さくなる
量子化 数値精度を下げる 速度・メモリが改善。精度はやや低下
蒸留 小モデルを大モデルから学習 精度低下が少ない。構造の自由度が高い

AIの社会実装・数理統計知識


35. AIプロジェクトの進め方

  • 代表的な開発プロセス:CRISP-DM、PoC、MLOpsなど

36. データの収集・加工・分析・学習

  • アノテーション:学習データに正解ラベルを付与する作業。品質が学習に直結
  • データリーケージ:学習データに本来知ってはいけない情報(テストデータの情報)が混入すること。

37. AIに必要な数理・統計知識

基本統計量

AI法律・倫理・ガバナンス


💡 匿名加工情報 vs 仮名加工情報

説明 匿名加工情報 仮名加工情報
個人特定の可能性 復元不可能 他の情報と照合すれば可能
第三者提供 可(目的不問) 原則不可
目的外利用 不可
主な用途 データ流通・外部提供 社内分析・業務効率化

AIガバナンス・AI倫理

  • プライバシー:プライバシー・バイ・デザイン、カメラ画像利活用ガイドブックなど
  • 公平性:アルゴリズムバイアス、サンプリングバイアス、センシティブ属性、代理変数など
  • 透明性と説明可能性 (XAI):ブラックボックス問題の解消

💡 AIガバナンスのキーワード整理

概念 一言で言うと
透明性 何をしているかがわかる
説明可能性 なぜそう判断したかがわかる
公平性 特定グループへの差別がない
安全性 意図しない害を与えない
人間の関与 最終判断に人間が入る
トレーサビリティ 後から追跡できる
再現性 同じ結果を繰り返し出せる
タイトルとURLをコピーしました