Web教科書

転移学習

転移学習 (Transfer Learning)

解説:AIにおける「巨人の肩に乗る」アプローチ

転移学習(Transfer Learning)は、あるタスクで学習済みのモデル(知識)を、別の関連するタスクに再利用する手法です。

人間で例えるなら、「テニスが上手い人は、ラケットの扱いに慣れているので、バドミントンやスカッシュも上達が早い」というのと似ています。ゼロから素振りを覚える必要はありません。

🏥 具体的な成功パターン

  • 学習済みモデル:
    ImageNet」などの超巨大データセット(1000万枚以上の日常画像)で、「線、形、模様」の見分け方を完璧にマスターしたAIを用意します。
  • 転移(応用):
    このAIの「目(特徴抽出部分)」を借りてきて、「レントゲン画像から病気を見つける」という専門タスクを行わせます。

これにより、医療画像が少量しかなくても、最初から「形を見る能力」が高いため、高精度なAIが作れます。

「ファインチューニング」との関係

G検定では、この2つの用語の使い分けが問われます。広義には同じ文脈で使われますが、厳密には以下のようなニュアンスの違いがあります。

手法名 再学習の範囲 イメージ
転移学習
(狭義)
学習済みモデルの重みは「固定」する。
最後の分類層だけをすげ替えて学習する。
「知識はそのまま使う」
(特徴抽出器として利用)
ファインチューニング
(Fine-tuning)
学習済みモデルの重みも「微調整」する。
全体(または一部)を再学習させる。
「知識を新しいタスクに合わせて磨き直す」
(微調整)

G検定対策

出題ポイント

  • 最大のメリット:「手元のデータが少ない(少データ)」かつ「学習時間を短縮したい」場合に極めて有効である。
  • 学習済みモデル:VGG16、ResNetBERTなど、有名モデルの重みが公開されており、それをダウンロードして利用するのが一般的。
  • ドメイン適応:転移学習の一種で、学習データ(ソースドメイン)とテストデータ(ターゲットドメイン)の分布が異なる場合に、そのズレを調整する技術。

ひっかけ対策

  • × 転移学習には、元データと同じ量のデータが必要である
    (解説)元データより圧倒的に少ないデータ量でも機能するのが転移学習の強みです。
  • × 画像認識以外では使えない
    (解説)自然言語処理(BERTなど)や音声認識など、ディープラーニングのあらゆる分野で必須の技術です。
タイトルとURLをコピーしました