Web教科書

国内外のガイドライン(ソフトロー、ハードロー)

国内外のAIガイドライン(ソフトロー、ハードロー)

解説:AIを縛る「硬いルール」と「柔らかいルール」

AI技術は日々進化するため、ガチガチの法律で縛るとイノベーションが止まってしまう恐れがあります。一方で、野放しにすれば差別や事故などの危険が生じます。
このジレンマを解決するために、世界中で議論されているのが以下の概念です。

1. ソフトロー vs ハードロー

AIガバナンスを理解するための最も重要な対比です。

区分 定義 メリット デメリット 代表例
ソフトロー
(Soft Law)
法的拘束力のない「ガイドライン」「原則」「指針」
企業が自主的に守るマナーのようなもの。
柔軟で速い。
技術の変化に合わせてすぐに改訂でき、企業の自主性を尊重できる。
強制力がない。
守らなくても罰則がないため、実効性が弱い(「やったもん勝ち」になるリスク)。
・OECD AI原則
・人間中心のAI社会原則(日本)
ハードロー
(Hard Law)
法的拘束力のある「法律」
違反すると罰金や停止命令が出る。
強制力がある。
全員が守るため、安全性が確実に担保される。
硬直的で遅い。
改正に時間がかかり、技術革新を阻害する可能性がある。
・EU AI法(AI Act)
個人情報保護法
著作権法

2. リスクベース・アプローチ (Risk-based Approach)

EUのAI法(AI Act)などで採用されている、「AIのリスクレベルに応じて規制の強さを変える」という考え方です。一律に規制するのではなく、メリハリをつけます。

🚦 4つのリスク分類(EU AI法の例)

  • 許容できないリスク(Unacceptable risk):
    人間の意識を操作するサブリミナルAIや、公的機関による社会的信用スコアリングなど。
    禁止
  • ハイリスク(High risk):
    医療機器、重要インフラ、採用試験、入国管理など、人の安全や権利に直結するもの。
    厳格な審査・管理義務(適合性評価など)
  • 限定的なリスク(Limited risk):
    チャットボットやディープフェイクなど。
    透明性の確保(「これはAIです」と明示する義務)
  • 最小限のリスク(Minimal risk):
    スパムフィルターやゲームAIなど。
    規制なし(自由)

3. 共通の理念:人間中心のAI

国や団体によって細かい表現は違いますが、全てのガイドラインの根底には「人間中心 (Human-Centric)」という共通の思想があります。

  • 人間中心のAI社会原則(日本): 日本の国家戦略。「AIは人間の道具であり、人間の尊厳を脅かしてはならない」とする考え方。
  • OECD AI原則(国際): 先進国共通の指針。これをベースに各国のガイドラインが作られている。「透明性」「説明責任」「公平性」などがキーワード。

G検定対策

出題ポイント

  • トレンド:これまでは「ソフトロー」中心だったが、EUのAI法(世界初の包括的規制)を皮切りに、世界的に「ハードロー(法規制)」へ移行しつつある流れを押さえる。
  • 日本のスタンス:日本は今のところ「ソフトロー(ガイドライン)」を重視し、企業の自主性を促すアプローチを取っているが、EUに追随して法制化の議論も始まっている。
  • ELSI:AI開発において考慮すべき「倫理的(Ethical)、法的(Legal)、社会的(Social) 課題」の総称。

ひっかけ対策

  • × リスクベースアプローチでは、全てのAIシステムに対して厳しい審査が義務付けられる
    (解説)「ハイリスク」なものだけ厳しくし、リスクの低いチャットボットなどは緩くする(メリハリをつける)のがリスクベースアプローチです。
  • × OECD AI原則には法的拘束力がある
    (解説)OECDは国際機関であり、その原則はあくまで「推奨事項(ソフトロー)」です。法律ではありません。

「国内外のガイドライン」の関連キーワード一覧

タイトルとURLをコピーしました