はじめに
EUは2024年3月に「AI法(Artificial Intelligence Act)」が欧州議会で可決され、同年8月1日に施行しました。
この法律は、AIシステムをリスクに応じて分類し、特に「高リスク」とされるAIには厳格な規制を設けています。
これに関する当社の対応方針はコラムNo.4 「EUのAI規制法と当社の対応について」に述べさせていただいております。
最近、EUはこの政策を転換し規制からイノベーション促進に舵を切っています。
本コラムでは、この間の事情をお伝えし、当社の対応方針について述べさせて頂きます。
EU AI法(AI Act)の概要
「AI法(Artificial Intelligence Act)」は、AIシステムをリスクに応じて分類し、特に「高リスク」とされるAIには厳格な規制を設けています。
高リスクAIとは健康、教育、雇用、重要インフラ、司法、法執行などの分野で使用されるAIシステムが該当し、この中には感情認識システム(Emotion Recognition System)も含まれています。
主な義務
- 品質管理と透明性の確保
- 人間による監督
- リスク評価と軽減策の実施
- 適合性評価の実施
これらの規定は、2026年8月2日から段階的に適用され、2027年8月2日までに完全施行される予定です。
規制からイノベーション促進への政策転換
近年、EUはAI分野での競争力強化を目的に、規制一辺倒の姿勢からイノベーション促進へと政策の舵を切りつつあります。
AIギガファクトリーの建設
イギリスを代表する高級紙として世界的に知られる日刊新聞ガーディアンの今年4月9日付の記事によれば、2025年4月、EUはAI開発を加速するため、約200億ユーロ(約3.3兆円)を投じてAIギガファクトリーを建設する計画を発表しました。
この計画では、超大規模なスーパーコンピューターを備えた「AIギガファクトリー」を欧州に複数設置し、医療やロボティクスなどの分野で革新的な技術開発を目指します。
これにより、AI分野で先行する米中に対抗し、欧州を「AI大陸」に変革することを目指しています。
現在欧州ではAIプロセッサー25,000個が搭載されたLumiスーパーコンピューター施設が最大ですが、AIギガファクトリーでは100,000個のAIプロセッサー搭載の施設を建設する予定とのことです。
AI責任指令案の撤回
2025年2月、欧州委員会(European Commission)は、AIに関する重要な法制度のひとつである「AI責任指令案(AI Liability Directive)」を撤回しました。
この決定は、EUにおけるAIガバナンスの将来像に影響を与える重要な動きとして注目を集めています。
AI責任指令案は、AIシステムが引き起こした損害に対する民事責任のルールを明確にすることを目的に、2022年に欧州委員会が提案した法案です。
たとえば、自動運転車やAIを活用した医療機器などで事故が発生した場合、被害者が誰にどうやって損害賠償を請求できるのかを整理しようというものでした。
米国ニューヨークに本拠を置く国際的な法律事務所ホワイト・アンド・ケースの4月19日のホームページ記事によれば、撤回されたのは次のような理由とのことです。
AI責任指令案には、AIを開発・提供する企業が被害者の立証を補助する義務(証拠開示義務)などが盛り込まれていました。
しかし、これが企業、特に中小企業にとっては大きな負担になるとの声があり、イノベーションを阻害するリスクが指摘されました。
また、EU加盟国はそれぞれ独自の民事責任ルールを持っており、統一的なルールを導入すること自体が非常に困難です。
とくにフランスやドイツなど法体系が異なる国々では、指令案の実装が混乱を招く可能性がありました。
これらのことから、AI責任指令案は撤回されました。
これらの動きは、EUがAI分野でのリーダーシップを維持しつつ、柔軟な規制と積極的な投資を通じて技術革新を促進しようとする姿勢を示しています。
日本の高リスクAI規制の現状と方向性
日本では、現時点でEUのAI法に相当する包括的なAI規制法は存在しません。
しかし、政府はAIの安全・安心な活用を促進するため、段階的な法整備を進めています。
高リスクAIへの対応
自民党は2024年9月、生成AIや高リスクAIシステムに対する規制の必要性を提言し、政府もこれに応じて法整備を検討しています。
AI基本法案の策定
2025年2月、日本政府はAIのイノベーション促進と社会的・倫理的リスクへの対応を目的としたAI基本法案を国会に提出しました。
規制とイノベーションのバランス
日本政府は、AI分野での競争力強化と社会的リスクの軽減を両立させるため、以下のようなアプローチを採用しています。
「ライトタッチ」規制
過度な規制を避け、イノベーションを阻害しない柔軟な規制を目指しています。
AIフレンドリーな法整備
2025年2月、日本政府は「世界で最もAIに優しい国」を目指す方針を発表し、AIの活用を促進する法整備を進めています。
これらの方針は、AI技術の発展と社会的受容性の向上を両立させることを目的としています。
当社の対応方針
当社は、EUの方針転換に対しては特段の対応方針変更は行いません。
従来通り、次の方針を堅持します。
①透明性の確保
②データ保護とプライバシー及び公平性の確保
③人間による意思決定関与(AIのみによる意思決定の排除)
しかしながら、AIの能力が飛躍的に向上していることに鑑み、欧州におけるイノベーション促進の動向には引き続き注視し、感情解析におけるAIの活用が適切に行われるように致します。