転移学習 (Transfer Learning)
解説:AIにおける「巨人の肩に乗る」アプローチ
転移学習(Transfer Learning)は、あるタスクで学習済みのモデル(知識)を、別の関連するタスクに再利用する手法です。
人間で例えるなら、「テニスが上手い人は、ラケットの扱いに慣れているので、バドミントンやスカッシュも上達が早い」というのと似ています。ゼロから素振りを覚える必要はありません。
🏥 具体的な成功パターン
- 学習済みモデル:
「ImageNet」などの超巨大データセット(1000万枚以上の日常画像)で、「線、形、模様」の見分け方を完璧にマスターしたAIを用意します。 - 転移(応用):
このAIの「目(特徴抽出部分)」を借りてきて、「レントゲン画像から病気を見つける」という専門タスクを行わせます。
これにより、医療画像が少量しかなくても、最初から「形を見る能力」が高いため、高精度なAIが作れます。
「ファインチューニング」との関係
G検定では、この2つの用語の使い分けが問われます。広義には同じ文脈で使われますが、厳密には以下のようなニュアンスの違いがあります。
| 手法名 | 再学習の範囲 | イメージ |
|---|---|---|
| 転移学習 (狭義) |
学習済みモデルの重みは「固定」する。 最後の分類層だけをすげ替えて学習する。 |
「知識はそのまま使う」 (特徴抽出器として利用) |
| ファインチューニング (Fine-tuning) |
学習済みモデルの重みも「微調整」する。 全体(または一部)を再学習させる。 |
「知識を新しいタスクに合わせて磨き直す」 (微調整) |
G検定対策
出題ポイント
- 最大のメリット:「手元のデータが少ない(少データ)」かつ「学習時間を短縮したい」場合に極めて有効である。
- 学習済みモデル:VGG16、ResNet、BERTなど、有名モデルの重みが公開されており、それをダウンロードして利用するのが一般的。
- ドメイン適応:転移学習の一種で、学習データ(ソースドメイン)とテストデータ(ターゲットドメイン)の分布が異なる場合に、そのズレを調整する技術。
ひっかけ対策
- × 転移学習には、元データと同じ量のデータが必要である
(解説)元データより圧倒的に少ないデータ量でも機能するのが転移学習の強みです。 - × 画像認識以外では使えない
(解説)自然言語処理(BERTなど)や音声認識など、ディープラーニングのあらゆる分野で必須の技術です。
