Web教科書

公平性

AIの公平性 (Fairness)

解説:AIは「偏見」を増幅する鏡

「AIは感情を持たない機械だから、人間よりも中立で公平な判断をするだろう」というのは大きな誤解です。
現在のAIは、過去の人間社会のデータを学習して作られます。つまり、過去のデータに「差別」や「偏見」が含まれていれば、AIはそれを「正解のルール」として学習し、時にはそれを増幅して出力してしまうのです。

この問題は「アルゴリズム・バイアス」と呼ばれ、採用、ローン審査、刑事司法など、人の人生を左右する場面で深刻な影響を及ぼします。

1. 公平性が問題となった代表的事例

試験でよく問われる「失敗事例」です。これらはAI技術の未熟さだけでなく、学習データの偏りが原因でした。

事例名 概要 問題の本質
COMPAS
(米国 / 司法)
裁判所で使用された「再犯リスク予測AI」。
「黒人はリスクが高く、白人は低い」と誤って予測する傾向(偽陽性率の差)があることが発覚した。
過去の逮捕データ自体に人種的な偏り(取り締まりの不均衡)があったため、AIがそれを学習してしまった。
Amazon採用AI
(米国 / 人事)
過去10年の履歴書を学習させたところ、「女性」を減点する(女性差別)ようになったため、運用中止に追い込まれた。 IT業界は歴史的に男性が多く、AIが「男性であること=優秀」という誤った相関関係を学んでしまった。
Gender Shades
(画像認識)
商用の顔認識システムにおいて、「色の白い男性」はほぼ100%認識できるが、「色の黒い女性」は認識精度が著しく低いことが研究で示された。 学習データセットの大半が「白人男性」の写真であり、マイノリティのデータが不足していた(データの不均衡)。

2. バイアスの原因:なぜ不公平になるのか?

データの偏り (Dataset Bias)

そもそも学習させるデータが偏っているケースです。
(例:欧米で作られた画像セットを使うと、結婚式の画像として「白いウェディングドレス」ばかり学習し、日本の白無垢やインドのサリーを認識できなくなる)

履歴に含まれる差別 (Historical Bias)

データ自体は正確でも、社会構造そのものが歪んでいるケースです。
(例:過去の管理職がほとんど男性だった場合、AIは「管理職=男性」という現状維持バイアスを学習し、女性の登用を阻害する)

代理変数 (Proxy Variable) の罠

これが最も厄介な問題です。
「人種差別をしないように、データから『人種カラム』を削除しよう」としても、解決しないことがあります。

  • 理由: 例えば「居住地域(郵便番号)」が人種と強く相関している場合、AIは郵便番号を「人種の代わり(代理変数)」として使い、結果的に特定の人種を不利に扱う判定をしてしまうからです。

3. 対処法:公平性の定義と技術

公平性には「答え」がない

「何をもって公平とするか」は立場によって異なります。AIにおける公平性の指標には数十種類ありますが、数学的にこれらを同時に満たすことは不可能(トレードオフ)であることが証明されています。

⚖️ 代表的な3つの公平性指標

  • Demographic Parity(統計的パリティ):
    結果の比率を合わせる。
    (例:応募者の男女比に関わらず、採用人数の男女比を50:50にする)
  • Equalized Odds(均等化オッズ):
    予測の正答率(や誤り率)を合わせる。
    (例:本当に再犯した人を正しく見抜ける確率を、黒人と白人で同じにする)
  • Individual Fairness(個人の公平性):
    「似た能力を持つ個人」であれば、性別や人種が違っても同じ結果を出す。

Human-in-the-loop(人間による介入)

技術だけで完全な公平性を実現するのは困難です。
最終的な判断はAIに任せきりにせず、人間がプロセスに介入してチェックする(Human-in-the-loop)ことが、現実的な対処策として推奨されています。

G検定対策

出題ポイント

  • COMPASとAmazonの事例:何が原因で、どんな差別が起きたか(再犯予測の人種差別、採用の性差別)をセットで覚える。
  • 代理変数(Proxy Variable):「センシティブ属性(人種・性別)をデータから削除しても、他の項目がその代わりを果たしてしまい、差別が残る現象」のこと。
  • トレードオフ:「全ての公平性指標を同時に満たす最強のAIは作れない」ため、どの指標を重視するか、人間が合意形成する必要がある。

ひっかけ対策

  • × 学習データから性別の項目を削除すれば、性差別は完全に防げる
    (解説)「出身校」や「趣味」などが代理変数となり、間接的に性別を推測して差別する可能性があります。
  • × AIの判断結果が、実際の統計データ(現実)と一致していれば公平である
    (解説)現実社会そのものが差別的である場合(歴史的バイアス)、現実を正確に模倣することは「差別の再生産・固定化」になります。あるべき姿(公平)を目指すには、あえて現実に逆らう調整が必要な場合もあります。

「公平性」の関連キーワード一覧

タイトルとURLをコピーしました