AIに関する法律・規制は、その技術の急速な進化に伴い、著作権、責任の所在、および国際的なガバナンスの3つの主要な論点で世界的に議論され、整備が進んでいます。特にEUのAI Actは世界初の包括的なAI規制として注目され、日本もガイドラインと法整備の両面で対応を加速しています。以下に、AIに関する法律と最新動向について超詳しく解説します。
日本政府は、AI分野でのイノベーションを阻害しないよう、ソフトなルール(ガイドライン)を中心としつつ、法整備も視野に入れたアプローチを取っています。
2024年4月に公表された「AI事業者ガイドライン(第1.0版)」が中心的な役割を果たしています。これは、AIの開発者・提供者・利用者(事業者)に対して、以下の原則的な対応を求めるものです。
| 立場 | 主な求められる対応(リスク対応) |
|---|---|
| 開発者・提供者 | 安全性の確保、透明性の向上(AIの出力がAIによるものであることの明示)、データプライバシーの保護、バイアス(偏見)の排除。 |
| 利用者 | 利用目的の明確化、出力結果の検証(ハルシネーションなどの誤りをそのまま使わない)、人による監視(特に高リスクな利用の場合)。 |
生成AIの登場により、学習段階と生成・利用段階の2つのフェーズで著作権の解釈が大きな問題となっています。
日本の著作権法第30条の4を根拠に、AIの開発・学習のための著作物の利用は、原則として著作権侵害にならないとされています。これは、日本のイノベーション促進を目的とした独自の規定です。
AIが生成した文章や画像などの「AI創作物」が著作権で保護されるか、また、それが既存の著作権を侵害するかどうかが焦点です。
欧州連合(EU)は、世界で最も包括的なAI規制法であるAI法(AI Act)を2024年5月に成立させました(一部規定は2024年8月施行、本格適用は段階的に2026年)。
AIが起こした損害や事故について、従来の法律(不法行為責任、製造物責任など)で誰が責任を負うのか、という問題は最も難しい論点の一つです。
法的責任の議論と並行して、 バイアス(偏見)の問題やプライバシー侵害、情報操作(ディープフェイク)といった倫理的なリスクについても、国際的にAI倫理原則の策定が進められています。
2025年から
人工知能関連技術の研究開発及び活用の推進に関する法律(AI新法)が日本で公布・全面施行
AI技術の発展を促進しつつ、その利用に伴うリスクに注意を促すことを目的とした法律
→法的強制力をもたない、あくまでAIの開発研究・運用を誘導・監督・是正するもの
2024年 European Artifical Intelligence Act(AI法) がEUで承認
基本的人権や安全の保護、AIの悪用による社会的リスクの回避、人間中心かつ信頼できるAIの促進、EU域内での意識の統一を目的とした法律
人の意識を超えた潜在的に操作的・欺瞞的な技術を使い、判断能力を著しく損なわせて行動を歪めるAIシステム
→人々が情報に基づいた合理的な判断をする能力を著しく損なわせるような潜在的・欺瞞的な操作技術の使用を防ぐ
年齢、障害、社会的・経済的状況による人の脆弱性を狙い、人の行動を著しく歪め損害を与えるAI
→子どもや障害者、高齢者、社会的に弱い立場の人々がAIによって不当に操作され、精神的・経済的被害を被ることを防ぐ
個人の性格特性や特徴に基づき犯罪リスクを評価して不利益を与えるAI
→AIによる犯罪リスクの予測で人権侵害が起きないようにし、偏見に基づく不当な不利益措置を防ぐ
インターネットや監視映像から無差別に顔画像を収集し、顔認識データベースを作るAI
→インターネットや公共の監視映像から顔画像を無差別に収集し、大規模な顔認識データベースを作ることによるプライバシーの侵害を防ぐ
e-gov 法令検索:人工知能関連技術の研究開発及び活用の推進に関する法律
https://laws.e-gov.go.jp/law/507AC0000000053EU Artificial Intelligence Act
https://artificialintelligenceact.euBusiness Lawyers EU AI法の概要と日本企業に必要な対応を解説
https://www.businesslawyers.jp/articles/1431