AIの規制

AIに関する法律・規制は、その技術の急速な進化に伴い、著作権、責任の所在、および国際的なガバナンスの3つの主要な論点で世界的に議論され、整備が進んでいます。特にEUのAI Actは世界初の包括的なAI規制として注目され、日本もガイドラインと法整備の両面で対応を加速しています。以下に、AIに関する法律と最新動向について超詳しく解説します。

1. 日本のAI法制の現状:ガイドラインと法整備

日本政府は、AI分野でのイノベーションを阻害しないよう、ソフトなルール(ガイドライン)を中心としつつ、法整備も視野に入れたアプローチを取っています。

① AI事業者ガイドライン(経済産業省・総務省)

2024年4月に公表された「AI事業者ガイドライン(第1.0版)」が中心的な役割を果たしています。これは、AIの開発者・提供者・利用者(事業者)に対して、以下の原則的な対応を求めるものです。

立場 主な求められる対応(リスク対応)
開発者・提供者 安全性の確保、透明性の向上(AIの出力がAIによるものであることの明示)、データプライバシーの保護、バイアス(偏見)の排除。
利用者 利用目的の明確化、出力結果の検証(ハルシネーションなどの誤りをそのまま使わない)、人による監視(特に高リスクな利用の場合)。

② 関連法の整備・検討(2024年以降)

2. 知的財産権(著作権)に関する法的整理

生成AIの登場により、学習段階と生成・利用段階の2つのフェーズで著作権の解釈が大きな問題となっています。

① AIによる著作物の「学習」段階(インプット)

日本の著作権法第30条の4を根拠に、AIの開発・学習のための著作物の利用は、原則として著作権侵害にならないとされています。これは、日本のイノベーション促進を目的とした独自の規定です。

② AIによる「生成物」の著作権(アウトプット)

AIが生成した文章や画像などの「AI創作物」が著作権で保護されるか、また、それが既存の著作権を侵害するかどうかが焦点です。

3. 国際的なAI規制の動向:EU AI Actの衝撃

欧州連合(EU)は、世界で最も包括的なAI規制法であるAI法(AI Act)を2024年5月に成立させました(一部規定は2024年8月施行、本格適用は段階的に2026年)。

EU AI Actの主な特徴

  1. リスクベースアプローチ: AIシステムが社会に与えるリスクの高さに応じて、規制の厳しさを4段階に分類しています。
  2. 域外適用: EU域内にAIシステムを提供する日本企業を含む域外の企業も規制の対象となるため、世界的な影響が非常に大きいとされています。
  3. 高額な罰則: 違反した場合、最大で年間世界売上高の7%または3,500万ユーロ(約57億円)という高額な罰金が科せられる可能性があります。

4. AIの責任の所在に関する議論

AIが起こした損害や事故について、従来の法律(不法行為責任、製造物責任など)で誰が責任を負うのか、という問題は最も難しい論点の一つです。

倫理的・社会的な重要課題

法的責任の議論と並行して、 バイアス(偏見)の問題やプライバシー侵害情報操作(ディープフェイク)といった倫理的なリスクについても、国際的にAI倫理原則の策定が進められています。

日本や世界のAI法規制

日本

2025年から 人工知能関連技術の研究開発及び活用の推進に関する法律(AI新法)が日本で公布・全面施行
AI技術の発展を促進しつつ、その利用に伴うリスクに注意を促すことを目的とした法律
→法的強制力をもたない、あくまでAIの開発研究・運用を誘導・監督・是正するもの

EU

2024年 European Artifical Intelligence Act(AI法) がEUで承認

人工知能に関する調和規則を定める規則 翌25年 施行

基本的人権や安全の保護、AIの悪用による社会的リスクの回避、人間中心かつ信頼できるAIの促進、EU域内での意識の統一を目的とした法律

主な禁止事項

参考サイト