G検定最新シラバス(G2024#6から適用)をもとに全キーワードのチートシートを作成しています。
よくある試験対策のポケット本のように全体の復習にも活用ください。

人工知能の基礎と動向
1. 人工知能の定義
AIのレベル分類(4段階)
試験頻出。上位ほど高度で、下位の能力を内包する。
- 単純な制御プログラム:条件分岐のみ。知能とは呼べないが「AIっぽく見える」製品も多い
- 古典的な人工知能:探索・推論・知識表現を使う。ルールベース。エキスパートシステムなど
- 機械学習:データから自動でルールを学習。人手でルールを書かなくてよい
- 深層学習(ディープラーニング):多層ニューラルネットワークによる機械学習の一手法
AI効果
AIがあるタスクを達成すると「それは本当の知能ではない」と評価が下がる現象。
→ 知能の定義が常に後退し続けるため、「AIは永遠に知能に達しない」という逆説になる。
💡 AI効果についての詳細はこちらを参考にしてください:
AI効果とは何か?
💡 強いAI vs 弱いAI
| 説明 | 強いAI | 弱いAI |
|---|---|---|
| 定義 | 人間と同等の汎用的な知性を持つAI | 特定タスクに特化したAI |
| 現状 | まだ実現していない | 現在普及しているAIはすべてこちら |
| 例 | SF上の汎用AI | 画像認識・翻訳・AlphaGoなど |
💡 強いAI・弱いAIについての詳細はこちらを参考にしてください:
強いAIと弱いAIの違い
2. 人工知能分野で議論される問題
シンギュラリティ
AIが人間の知能を超え、自ら更に高度なAIを開発できるようになる転換点。Ray Kurzweilが2045年と予測。
試験では「技術的特異点」という言い方も出る。
💡 シンギュラリティについての詳細はこちらを参考にしてください:
シンギュラリティ(技術的特異点)
チューリングテスト
人間とAIの会話を審査員が区別できなければ、そのAIは知的であるとみなす検証方法(Alan Turing, 1950)。
ローブナーコンテストはこれを競技化した大会。
💡 チューリングテストについての詳細はこちらを参考にしてください:
チューリングテスト
中国語の部屋
部屋の中の人が中国語のルールに従ってやり取りできても、意味を「理解」しているわけではない、という思考実験(John Searle)。
→ 現在のAIは「処理はできるが理解はしていない」という批判の根拠。
💡 中国語の部屋についての詳細はこちらを参考にしてください:
中国語の部屋
フレーム問題
ある行動が世界に与える変化のうち「何が変わり、何が変わらないか」を識別できないAIの根本的問題。
現実世界の複雑さに対し、ルールベースAIが対処できない理由のひとつ。
💡 フレーム問題についての詳細はこちらを参考にしてください:
フレーム問題
シンボルグラウンディング問題
記号(言語・概念)と現実世界の意味を結びつけられない問題。
例:「リンゴ」という単語の意味を、実物を見ずに記号だけで理解できるか?
💡 シンボルグラウンディング問題についての詳細はこちらを参考にしてください:
シンボルグラウンディング問題(記号接地問題)
💡 トイ・プロブレムと知識獲得のボトルネック
- トイ・プロブレム:実験室では解けるが現実には通用しない「おもちゃの問題」
- 知識獲得のボトルネック:エキスパートシステムの限界。専門家の知識を手動でルール化するのに膨大なコストがかかる問題
→ この2つが第二次AIブームの終焉(AIの冬)の原因となった
3. 探索・推論
💡 幅優先探索 vs 深さ優先探索
- 根に近い順(浅い順)に探索する
- 最短経路を保証できる
- メモリ消費が大きい
- 可能な限り深く掘り下げてから戻る
- メモリ効率は良い
- 最短路を保証しない
ブルートフォース:全組み合わせを総当たりで探索。確実だが計算量が爆発的に増える。
ゲームAIの探索手法
Mini-Max法:自分の利得を最大化し、相手の利得を最小化する手法。ゲームの木をすべて展開する。
αβ法:Mini-Max法の枝刈り版。明らかに選ばれない枝を省略して効率化。結果はMini-Maxと同じ。
モンテカルロ法:乱数を使ったランダムシミュレーションで近似解を求める手法。AlphaGo以前の囲碁AIで活躍。
4. 知識表現とエキスパートシステム
エキスパートシステムとは
専門家(エキスパート)の知識をIF-THENルールで記述し、推論エンジンで問題を解くシステム。
第二次AIブームの主役だったが、知識獲得のボトルネック問題で衰退。
主要な知識表現
- 意味ネットワーク:概念とその関係を有向グラフで表現
- is-a / has-a / part-of:関係の種類。「犬 is-a 動物」「犬 has-a 尻尾」
- オントロジー:概念・用語と相互関係を形式的に定義した体系。より厳密な意味ネットワーク
- セマンティックWeb:Webのデータに意味を付与し、機械が理解・活用できる構想(Tim Berners-Lee)
代表的なエキスパートシステム
| システム | 分野 | ポイント |
|---|---|---|
| MYCIN(マイシン) | 感染症診断 | 医療AIの先駆け |
| DENDRAL | 化学構造分析 | 最初期の成功例 |
| ELIZA(イライザ) | 対話 | パターンマッチングで心理療法士を模倣。理解はしていない |
| ワトソン(Watson) | QA | IBMのシステム。Jeopardy!で人間に勝利 |
| 東ロボくん | 大学入試 | 国立情報学研究所のプロジェクト。東大合格は断念 |
| Cycプロジェクト | 常識知識 | 常識を大規模DBとして構築する試み |
5. 機械学習
💡 機械学習とルールベースの違い
| 説明 | ルールベース | 機械学習 |
|---|---|---|
| ルールの作り方 | 人間が手動で記述 | データから自動で学習 |
| 強み | 説明可能・予測可能 | 複雑なパターンを発見できる |
| 弱み | 知識獲得コストが高い | 大量データが必要、解釈が難しい |
機械学習が注目された背景(3点セット)
- ビッグデータの普及(Volume・Variety・Velocityの3V)
- 計算機性能(GPUなど)の向上
- アルゴリズムの改善
次元の呪い
特徴量(次元)が増えるほど、データが空間内で疎になり、学習に必要なデータ量が指数的に増える問題。
→ 次元削減(PCAなど)で対処する。
💡 次元の呪いについての詳細はこちらを参考にしてください:
次元の呪い
6. ディープラーニング
歴史の流れ(試験頻出)
- LeNet(1989, Yann LeCun):CNNの原型。手書き数字認識
- ネオコグニトロン(福島邦彦):LeNetの前身。視覚野の階層構造を模倣
- ImageNet / ILSVRC:100万枚超の大規模画像データセット&コンテスト
- AlexNet(2012):ILSVRCでCNNが圧倒的勝利 → ディープラーニングブームの火付け役
- AlphaGo(2016):深層強化学習で囲碁プロ棋士に初勝利
- 生成AI:LLM・画像生成モデルなど。現在の第四次AIブームの中心
💡 ディープラーニング全般についての詳細はこちらを参考にしてください:
ディープラーニングとは何か?
💡 古典的機械学習 vs ディープラーニング
| 説明 | 古典的機械学習 | ディープラーニング |
|---|---|---|
| 特徴量 | 人間が設計(特徴エンジニアリング) | 自動で学習(End-to-End) |
| データ量 | 少量でも動作可 | 大量のデータが必要 |
| 計算リソース | 少ない | GPUなど大きなリソースが必要 |
| 解釈性 | 比較的高い | ブラックボックスになりやすい |
| 得意分野 | 構造化データ | 画像・音声・テキストなど非構造化データ |
機械学習の概要
7. 教師あり学習
データに「正解ラベル(教師信号)」が付いている学習。入力 → 出力のマッピングを学ぶ。
💡 教師あり学習についての詳細はこちらを参考にしてください:
教師あり学習
💡 問題の種類:回帰 vs 分類
主要アルゴリズム
線形モデル
- 線形回帰:入力と出力の線形関係をモデル化。最もシンプルな回帰手法
- 単回帰分析:説明変数が1つの線形回帰
- 重回帰分析:説明変数が複数の線形回帰
- ロジスティック回帰:名前に「回帰」とあるが分類手法。出力を確率(0〜1)に変換
決定木・アンサンブル
- 決定木:条件分岐でデータを分割。解釈しやすいが過学習しやすい
- ランダムフォレスト:複数の決定木を多数決。バギングの代表例
- 勾配ブースティング:弱学習器を逐次的に加えて誤差を修正。強力だが過学習に注意
- アンサンブル学習:複数モデルを組み合わせて精度を上げる総称
💡 バギング vs ブースティング
| 説明 | バギング | ブースティング |
|---|---|---|
| 学習の仕方 | 並列に学習(独立) | 逐次的に学習(前の誤りを修正) |
| 代表例 | ランダムフォレスト | 勾配ブースティング |
| 過学習への強さ | 強い | やや弱い(ハイパーパラメータ調整が重要) |
その他
- SVM(サポートベクターマシン):マージン最大化でクラスを分ける。カーネルトリックで非線形にも対応
- カーネルトリック:低次元では線形分離できないデータを高次元に写像して分離する技法
- k-NN(k近傍法):多クラス分類に使用。最近傍のk個の多数決でクラスを決定
時系列モデル
- 自己回帰モデル(ARモデル):過去の値から未来を予測
- ベクトル自己回帰モデル(VARモデル):複数の時系列を同時にモデル化
- ブートストラップサンプリング:データを復元抽出してモデルを多数作成する手法
8. 教師なし学習
正解ラベルなしで、データの構造やパターンを発見する学習。
💡 教師なし学習についての詳細はこちらを参考にしてください:
教師なし学習
問題の種類
クラスタリング(グループ化)
- k-means法:k個のクラスタに分ける。重心を繰り返し更新。k(クラスタ数)は事前指定が必要
- ウォード法:階層的クラスタリングの手法。クラスタ内分散を最小化するように統合
- デンドログラム(樹形図):階層的クラスタリングの結果を木構造で可視化したもの
次元削減(可視化・圧縮)
- 主成分分析(PCA):分散が最大になる方向に軸を変換。線形手法の代表
- t-SNE:高次元データを2〜3次元に可視化する非線形手法。クラスタ構造の把握に使う
- LDA(潜在的ディリクレ配分法):テキストのトピックを確率的に抽出
- 特異値分解(SVD):行列を分解する手法。推薦システムや次元削減に活用
- MDS(多次元尺度構成法):データ間の距離関係を保ちながら低次元に写像
- トピックモデル:文書集合から潜在的なトピックを自動発見
- 協調フィルタリング:「似たユーザーが好むものを推薦」。ユーザー行動データを活用
- コンテンツベースフィルタリング:アイテムの特徴に基づいて推薦
- コールドスタート問題:新規ユーザー/アイテムには行動履歴がなく推薦できない問題
9. 強化学習
エージェントが環境と相互作用し、報酬を最大化する行動方策を学ぶ。
💡 強化学習についての詳細はこちらを参考にしてください:
強化学習
基本概念
- エージェント:行動する主体
- 環境:エージェントが作用する対象
- 状態(State):現在の環境の状況
- 行動(Action):エージェントが取れる選択肢
- 報酬(Reward):行動の結果として得られるフィードバック
- 割引率(γ):将来の報酬を現在価値に割り引く係数。0〜1で指定
- マルコフ決定過程(MDP):強化学習の理論的枠組み。「現在の状態だけで次の状態が決まる」マルコフ性を仮定
主要手法
価値ベース
- Q学習:Q値を更新して最適な行動を学ぶ。モデルフリーな代表手法
- SARSA:Q学習と似るが、実際に選んだ行動でQ値を更新するオンポリシー手法
方策ベース
- REINFORCE:方策を直接最適化する手法
- Actor-Critic:Actorが行動を選び、Criticが評価。価値ベースと方策ベースの融合
- 方策勾配法:報酬を増やす方向に方策パラメータを更新
探索戦略
- ε-greedy方策:ε(小さい確率)でランダム探索し、残りは最善行動を選ぶ。探索と活用のバランス
- UCB方策:訪問回数が少ない行動を優先的に選ぶ(Upper Confidence Bound)
- バンディットアルゴリズム:多腕バンディット問題(試行と報酬の最適化)に対する手法群
10. モデルの選択・評価
汎化と過学習
- 訓練誤差:学習データに対する誤差
- 汎化誤差:未知データに対する誤差。こちらを小さくするのが目標
- 過学習(オーバーフィッティング):訓練データに過剰適合し、未知データで性能が落ちる状態
- ノーフリーランチの定理:すべての問題に最適な汎用アルゴリズムは存在しない
💡 バイアスとバリアンスのトレードオフ
- バイアス(偏り):モデルが単純すぎて正解に届かないズレ。過少適合の原因
- バリアンス(分散):モデルがデータのノイズに過剰反応するばらつき。過学習の原因
- バイアスを下げると↑バリアンスが上がる。適切な複雑さのモデルを選ぶことが重要
検証手法
- ホールドアウト検証:データを学習用と検証用に単純に分割
- k分割交差検証(k-fold CV):データをk個に分割し、k回学習・検証を繰り返して平均を取る。データが少ない時に有効
回帰の評価指標
- MSE(平均二乗誤差):誤差の二乗の平均。外れ値の影響を大きく受ける
- RMSE(二乗平均平方根誤差):MSEの平方根。単位が元データと同じで解釈しやすい
- MAE(平均絶対値誤差):誤差の絶対値の平均。外れ値の影響を受けにくい
分類の評価指標
混同行列(Confusion Matrix)の4要素:
- 正解率(Accuracy):(TP+TN) / 全体。クラス不均衡時は信頼できない
- 適合率(Precision):TP / (TP+FP)。「Positiveと予測したうち正解の割合」
- 再現率(Recall):TP / (TP+FN)。「実際のPositiveを見つけられた割合」
- F値:適合率と再現率の調和平均。両方のバランスを見る
- ROC曲線:閾値を変化させたときのTPR(再現率)とFPR(偽陽性率)をプロット
- AUC:ROC曲線の面積。1.0が完璧、0.5はランダムと同等
モデル選択の指標
- AIC(赤池情報量規準):モデルの当てはまりとパラメータ数のバランスを評価。小さいほど良い
- BIC(ベイズ情報量規準):AICより強くパラメータ数にペナルティを与える
- オッカムの剃刀:同程度の説明力なら、よりシンプルなモデルを選ぶという原則
ディープラーニングの概要
11. ニューラルネットワークとディープラーニング
ニューラルネットワークの基本構造
- 入力層:データを受け取る
- 隠れ層(中間層):特徴を抽出・変換する。複数層あるのがディープラーニング
- 出力層:予測結果を出力する
- 重み(パラメータ):層間の結合の強さ。学習で更新される
- 単純パーセプトロン:入力を線形結合して閾値で分類。線形分離可能な問題しか解けない
- 多層パーセプトロン(MLP):隠れ層を複数持つ。非線形問題にも対応できる
12. 活性化関数
ニューラルネットワークに非線形性を与える関数。これがないと何層重ねても線形変換と同じ。
主要な活性化関数
- シグモイド関数:0〜1の範囲。二値分類の出力層でよく使われる。勾配消失問題が起きやすい
- tanh関数:-1〜1の範囲。シグモイドより学習しやすいが、勾配消失問題は残る
- ReLU関数:max(0, x)。計算が速く勾配消失が起きにくい。現在のDLで最もよく使われる
- Leaky ReLU関数:負の値を0にせず、小さな傾きを持たせる。Dying ReLUを防ぐ
- ソフトマックス関数:全出力の合計が1になるよう正規化。多クラス分類の出力層で使用
13. 誤差関数(損失関数)
- 平均二乗誤差関数(MSE):回帰タスクの代表
- 交差エントロピー:分類タスクの代表。予測確率分布と正解の差を測る
- カルバック・ライブラー情報量(KL情報量):2つの確率分布の差を測る
14. 正則化
- L1正則化(ラッソ回帰):重みの絶対値の和をペナルティに加える。不要な特徴の重みを0にできる(スパース化)
- L2正則化(リッジ回帰):重みの二乗和をペナルティに加える。重みを小さくするが0にはしない
- ドロップアウト:学習時にランダムにニューロンを無効化。アンサンブル効果を疑似的に得る
15. 誤差逆伝播法(バックプロパゲーション)
- 連鎖律(Chain Rule):合成関数の微分規則。逆伝播の数学的根拠
- 勾配消失問題:逆伝播時に勾配が層を遡るにつれて0に近づき、学習が止まる問題
16. 最適化手法
主要な最適化アルゴリズム
- SGD(確率的勾配降下法):シンプルな更新手法
- Adam:モーメンタム+RMSpropを組み合わせた手法。現在最もよく使われる
重要な概念
- 学習率(Learning Rate):パラメータの更新量。大きすぎると発散、小さすぎると収束が遅い
- エポック / イテレーション:学習回数の単位
- 局所最適解 / 大域最適解 / 鞍点:誤差関数の最小化における問題と目標
- 早期終了(Early Stopping):検証誤差が悪化し始めたら学習を止める過学習対策
ディープラーニングの要素技術
17. 全結合層
すべてのニューロンが前後の層と結合している層(Dense層とも呼ぶ)。
- 全結合層の重み(パラメータ数):入力ノード数 × 出力ノード数 + バイアス数。入力が大きいとパラメータが爆発的に増える
- 線形関数:全結合層の演算は行列積+バイアス(線形変換)。活性化関数で非線形にする
- 主に最終段の分類・回帰に使われる
18. 畳み込み層(CNN)
画像など空間的な構造を持つデータの処理に特化した層。
💡 CNNの仕組みについての詳細はこちらを参考にしてください:
畳み込みニューラルネットワーク(CNN)の基本
基本的な仕組み
- フィルタ(カーネル):小さな行列。入力データをスキャンして特徴を抽出
- 畳み込み操作:フィルタを画像上でスライドさせながら積和演算
- 特徴マップ:畳み込み演算の出力。どこに特徴があるかを表す
- パディング:入力の周囲に0を埋めて、出力サイズを調整する
- ストライド:フィルタをスライドさせる間隔。大きいと出力が小さくなる
💡 全結合層 vs 畳み込み層
| 説明 | 全結合層 | 畳み込み層 |
|---|---|---|
| パラメータ数 | 多い(すべて結合) | 少ない(フィルタを共有) |
| 位置情報 | 無視 | 保持(空間的な局所性を活用) |
| 得意なデータ | 構造化データ・ベクトル | 画像・音声など空間データ |
発展的な畳み込み
- 拡張畳み込み(Dilated Convolution):フィルタに間隔を空けて広い受容野を確保。解像度を下げずに文脈を捉える
- 深度別分離畳み込み(Depthwise Separable Convolution):チャンネルごとに畳み込んだ後にチャンネル間を結合。MobileNetで使用。計算コストを大幅削減
19. 正規化層
学習を安定させ、収束を速めるために各層の出力を正規化する層。
💡 正規化手法の比較
| 手法 | 正規化する単位 | 特徴・向いている場面 |
|---|---|---|
| バッチ正規化 | バッチ内の同チャンネル | 最も一般的。ミニバッチが十分大きい場合に効果的 |
| レイヤー正規化 | 1サンプル内の全特徴 | バッチサイズに依存しない。Transformerで標準 |
| インスタンス正規化 | 1サンプルの各チャンネル | 画像スタイル変換などに使用 |
| グループ正規化 | チャンネルをグループに分けて正規化 | バッチサイズが小さいときに有効 |
- バッチ正規化は学習時と推論時で挙動が違う(学習時は実際のバッチ統計、推論時は移動平均を使用)点に注意
20. プーリング層
特徴マップのサイズを縮小し、位置変動に対するロバスト性を高める層。
- 最大値プーリング(Max Pooling):領域内の最大値を取る。最もよく使われる
- 平均値プーリング(Average Pooling):領域内の平均値を取る
- グローバルアベレージプーリング(GAP):特徴マップ全体の平均を1つのスカラーに。全結合層の代替として使用
💡 プーリング層の役割
- 次元削減:特徴マップのサイズを小さくし計算量を減らす
- 不変性の獲得:対象が少しずれていても同じ特徴を検出できる(平行移動不変性)
21. スキップ結合
前の層の出力をいくつかの層を飛び越えて後の層に直接加算する接続。
- ResNet(残差ネットワーク):スキップ結合の代表モデル。「残差(差分)を学習する」という発想
- 役割:勾配消失問題を解決。100層を超える深いネットワークの学習を可能にした
- スキップ結合によって勾配が直接流れるルートが確保されるため、深くても学習が進む
22. 回帰結合層(RNN)
時系列・系列データを扱うための、過去の状態を保持できる層。
💡 RNNの基本についての詳細はこちらを参考にしてください:
RNN(リカレントニューラルネットワーク)
基本的な仕組み
- リカレントニューラルネットワーク(RNN):前のタイムステップの出力を次の入力に加える
- 時系列データ:文章・音声・株価など、順序に意味があるデータ
- BPTT(Backpropagation Through Time):RNNの学習アルゴリズム。時間方向に誤差を逆伝播
- 教師強制:学習時に前のステップの正解を次のステップの入力に使うことで収束を速める
- エルマンネットワーク / ジョルダンネットワーク:初期のRNNの代表形
RNNの問題点と解決策
RNNは長い系列では勾配消失/爆発問題が深刻になり、長期の依存関係を学べない。
- LSTM(Long Short-Term Memory):ゲート機構(入力・忘却・出力ゲート)でセルの記憶を制御。長期依存を学習できる
- GRU(Gated Recurrent Unit):LSTMを簡略化したモデル。パラメータが少なく計算効率が良い
- 双方向RNN(Bidirectional RNN):順方向・逆方向の両方向から系列を処理。文脈の前後両方を活用
💡 LSTM vs GRU
| 説明 | LSTM | GRU |
|---|---|---|
| ゲート数 | 3つ(入力・忘却・出力) | 2つ(リセット・更新) |
| パラメータ数 | 多い | 少ない |
| 性能 | 一般的に高い | 軽量で同等の性能が出ることも多い |
23. Attention
系列内のどの部分に注目すべきかを学習するメカニズム。
Attentionの基本
- RNNの問題点:長い系列では初期の情報が薄れる(情報のボトルネック)
- Attentionによって「どの入力部分に注目するか」を動的に学習できる
- キー(Key)・クエリ(Query)・バリュー(Value):Attentionの3つの構成要素。クエリとキーの類似度でバリューを重み付け
Attentionの種類
- Self-Attention:同じ系列内の各要素同士の関係を計算。Transformerの中心
- Source-Target Attention(Encoder-Decoder Attention):エンコーダの出力にデコーダがAttentionする
- Multi-Head Attention:Attentionを複数の部分空間で並列に実行。異なる視点の注意を同時に学習
Seq2SeqとTransformer
- Seq2Seq:エンコーダが入力を圧縮し、デコーダが出力を生成するRNNベースの枠組み。翻訳など
- Transformer:Attentionのみで構成(RNNなし)。並列処理が可能で現代のNLPの基盤
- 位置エンコーディング:TransformerはRNNと違い順序情報を持たないため、位置情報を埋め込みに加算
24. オートエンコーダ
入力を低次元に圧縮(エンコード)し、元に戻す(デコード)ことで特徴表現を学ぶモデル。
- 用途:次元削減・異常検知・事前学習・生成モデルの基礎
- 積層オートエンコーダ:複数のオートエンコーダを積み重ねて事前学習に使う
- 変分オートエンコーダ(VAE):潜在空間を確率分布(正規分布)として学習。データ生成が可能
- VQ-VAE:潜在空間を離散的なコードブックで表現する拡張版
- β-VAE / info VAE:VAEの正則化バランスを調整した改良版
💡 オートエンコーダ vs VAE
| 説明 | オートエンコーダ | VAE |
|---|---|---|
| 潜在空間 | 点(ベクトル) | 確率分布(平均+分散) |
| データ生成 | できない(圧縮が目的) | できる(分布からサンプリング) |
| 用途 | 次元削減・異常検知 | 生成モデル・データ補完 |
25. データ拡張(Data Augmentation)
学習データを人工的に増やし、モデルの汎化性能を高める手法。
主な手法
- Random Flip / Rotate / Crop:画像に対する基本的な拡張
- Mixup:2枚の画像と教師ラベルを線形補間して新しいサンプルを生成
- CutMix:ある画像の一部を別の画像で置き換え、ラベルも混合
ディープラーニングの応用例
26. 画像認識
💡 画像認識タスクの比較
| タスク | 概要 | 出力 |
|---|---|---|
| 画像分類 | 画像全体が何かを識別 | クラスラベル |
| 物体検出 | 物体の位置(バウンディングボックス)も特定 | クラス+座標 |
| 物体識別 | 同クラス内の個体を識別(誰の顔か等) | 個体ID |
| セマンティックセグメンテーション | ピクセルごとにクラスを分類。同クラスは区別しない | ピクセル単位クラス |
| インスタンスセグメンテーション | ピクセルごと+同クラスの個体も区別 | ピクセル単位クラス+ID |
| パノプティックセグメンテーション | セマンティック+インスタンスを統合 | 全画素の統合ラベル |
💡 物体検出の歴史についての詳細はこちらを参考にしてください:
物体検出モデルの進化と歴史(R-CNNからYOLOまで)
27. 自然言語処理(NLP)
💡 NLPの活用タスクの詳細はこちらを参考にしてください:
自然言語処理の活用タスク(感情分析・機械翻訳など)
テキストの特徴表現
単語ベクトル(分散表現)
- word2vec:ニューラルネットで単語の分散表現を学習。CBOW と Skip-gram の2方式
- fastText:word2vecを拡張し、サブワード(文字n-gram)を活用。未知語にも対応
💡 BERTとGPTの違い
| 説明 | BERT | GPT |
|---|---|---|
| Transformerの部分 | エンコーダのみ | デコーダのみ |
| 学習方法 | 双方向(文の前後を同時に見る) | 自己回帰(左から右に予測) |
| 得意タスク | 文章理解・分類・QA | テキスト生成・対話 |
28. 音声処理
音声認識・音声合成・感情分析などに用いられる技術。
29. 深層強化学習
深層学習と強化学習を組み合わせ、複雑な問題に対応する手法。
- DQN(Deep Q-Network):Q学習にDNNを組み合わせた手法。Atariゲームを人間以上にプレイ
- RLHF(人間のフィードバックによる強化学習):人間の評価を報酬にして言語モデルを調整。ChatGPTに活用
30. データ生成
💡 GAN vs Diffusion Model
| 説明 | GAN | Diffusion Model |
|---|---|---|
| 仕組み | 生成器と識別器の競合 | ノイズ除去を反復学習 |
| 画像品質 | 高い | より高い(現在の主流) |
| 学習の安定性 | 不安定(モード崩壊の問題) | 安定 |
| 生成速度 | 速い | 遅い(反復ステップが多い) |
31. 転移学習・ファインチューニング
大量データで事前学習した知識を、別のタスクに活用する手法。
💡 Few-shot / One-shot / Zero-shot
| 説明 | Zero-shot | One-shot | Few-shot |
|---|---|---|---|
| 追加データ数 | 0件 | 1件 | 数件 |
| 概要 | 学習なしで新タスクを実行 | 1例だけで学習 | 少数例で学習 |
32. マルチモーダル
画像・テキスト・音声など複数のモダリティ(情報形式)を組み合わせるモデル。
33. モデルの解釈性
ブラックボックスなDLモデルの予測根拠を解釈・説明する技術。
💡 説明可能AIについての詳細はこちらを参考にしてください:
説明可能AI(XAI) / Grad-CAM
34. モデルの軽量化
計算リソース・メモリが制限される環境でモデルを動かすための圧縮・効率化手法。
💡 軽量化手法の比較
| 手法 | アプローチ | 特徴 |
|---|---|---|
| プルーニング | 不要な重みを削除 | 構造自体が小さくなる |
| 量子化 | 数値精度を下げる | 速度・メモリが改善。精度はやや低下 |
| 蒸留 | 小モデルを大モデルから学習 | 精度低下が少ない。構造の自由度が高い |
AIの社会実装・数理統計知識
35. AIプロジェクトの進め方
- 代表的な開発プロセス:CRISP-DM、PoC、MLOpsなど
36. データの収集・加工・分析・学習
37. AIに必要な数理・統計知識
基本統計量
AI法律・倫理・ガバナンス
💡 試験で問われやすいAIに関する法律の各詳細はこちらを参考にしてください:
・個人情報保護法(個人情報・要配慮個人情報・匿名加工情報など)
・著作権法(著作権法30条の4など)
・特許法(発明・新規性・進歩性)
・不正競争防止法(営業秘密の要件など)
💡 匿名加工情報 vs 仮名加工情報
| 説明 | 匿名加工情報 | 仮名加工情報 |
|---|---|---|
| 個人特定の可能性 | 復元不可能 | 他の情報と照合すれば可能 |
| 第三者提供 | 可(目的不問) | 原則不可 |
| 目的外利用 | 可 | 不可 |
| 主な用途 | データ流通・外部提供 | 社内分析・業務効率化 |
AIガバナンス・AI倫理
- プライバシー:プライバシー・バイ・デザイン、カメラ画像利活用ガイドブックなど
- 公平性:アルゴリズムバイアス、サンプリングバイアス、センシティブ属性、代理変数など
- 透明性と説明可能性 (XAI):ブラックボックス問題の解消
💡 AIガバナンスのキーワード整理
| 概念 | 一言で言うと |
|---|---|
| 透明性 | 何をしているかがわかる |
| 説明可能性 | なぜそう判断したかがわかる |
| 公平性 | 特定グループへの差別がない |
| 安全性 | 意図しない害を与えない |
| 人間の関与 | 最終判断に人間が入る |
| トレーサビリティ | 後から追跡できる |
| 再現性 | 同じ結果を繰り返し出せる |
