ジェネレーティブAIをめぐって、GAFAMなどのテック企業間での開発競争が激化しているが、同時にジェネレーティブAI規制の主導権をめぐる競争も各国間で始まりつつある。

ジェネレーティブAI規制で最も先行しているといわれるのが欧州連合(EU)だ。

現在、ジェネレーティブAIに対応するため、欧州におけるAI法(AI Act)関連の議論を急ピッチで進める一方、AI行動規範(AI Code of Conduct)やAI協定(AI Pact)の導入議論も進めている。これらは、デファクトのグローバルスタンダードになる可能性があり、ジェネレーティブAI関連企業だけでなく、各国当局からも注目を浴びている。

以下では、ジェネレーティブAI規制に関して、現在どのような議論がなされているのか、欧州の動きを中心に、最新動向を追ってみたい。

欧州AI法、リスクベースでAI規制

ジェネレーティブAIに関して、欧州で様々な規制議論がなされる中、テック企業が特に注目しているのが、欧州におけるAI法議論の中身だろう。巨額の罰金を回避するため、AI法議論でどのような条項が盛り込まれるのかを把握し、対応策を講じる必要があるからだ。

欧州連合では2021年に「AI法(AI Act)」が提案され、その中身についての議論が今もなされている。ChatGPTの登場によって、議論が加速し、2023年5月15日の報道によると、欧州議会で中核となる委員会で、AI法案が承認されたことで、法律化に一歩近づいたとされる。

同法律は、リスクに基づくアプローチを採用しており、AIシステムに課される義務は、それがもたらすリスクのレベルに比例している。

リスクはレベルに応じて、受け入れがたいリスク(unacceptable risk)、高いリスク(high risk)、限定的なリスク(limited risk)、最小または無視できるリスク(minimal or no risk)の4段階に分類されている。

受け入れがたいリスクと評価されるAIは、デフォルトで禁止され、欧州連合域内での展開はできない。

以下に該当する場合、受け入れがたいリスクとみなされる。

  • サブリミナルテクニックを使用したAIシステム、または行動を歪めるための操作的または欺瞞的なテクニックを使用したAIシステム
  • 個人や特定のグループの脆弱性を利用するAIシステム
  • センシティブな情報に基づく生体特徴カテゴリシステム
  • 社会的なスコアリングや信頼性の評価に使用されるAIシステム
  • 犯罪を予測するAIシステム
  • スクレイピングによって顔認識データベースを作成または拡大するAIシステム
  • 法執行、国境管理、職場、教育において感情を分析するAIシステム

これらのリスクは以前から指摘されているものだが、ChatGPTなどのジェネレーティブAIの登場によって、追加された項目もいくつか存在する。

それらの項目とは、OpenAIなど大規模言語モデルの「基礎モデル」を開発する企業に対し、モデルを公開する前に、安全性のチェック、データガバナンスの措置、リスク軽減策の適用を求めるというもの。また、システムのトレーニングデータが著作権法に違反していないことを保証することも求められる。

欧州と米国でAI行動規範策定、インドやインドネシアなどの参加も促進

上記の欧州AI法が施行されれば、西側諸国でジェネレーティブAIを規制する初の法律となるが、楽観的に見積もっても施行まで2〜3年要するとみられている。

欧州連合は、それまでのつなぎの措置を導入する方向でも積極的な動きをみせている。

1つは米国議員らと協力したAI行動規範(AI Code of Conduct)の導入、もう1つはグーグルが積極関与を表明したAI協定(AI Pact)だ。

5月末にスウェーデンで開催された米欧貿易技術カウンシル(US-EU Trade Tech Council = TTC)の第4回会議で実施されたジェネレーティブAIに関するパネル討論で、競争・デジタル戦略を担当する欧州委員会副委員長マルグレーテ・ヴェスタガー氏は、AI行動規範の迅速な導入を表明した。

TTCは、2021年にテックガバナンスと貿易問題について米欧の議員が協議するために開設された会合の場。TTCには米商務長官ジーナ・レモンド氏も出席しており、AI行動規範の形成に向けた議論にバイデン政権が積極的に参加する意欲があることを示したといわれている。欧州側は、米国議員らの協力を得つつ、行動規範の草案を早急にまとめる方針で、インドやインドネシアの参加も促すという。

行動規範の草案策定においてヴェスタガー氏は、業界からの意見を「非常に歓迎する」としながらも、欧州連合の立法者が策定することが重要であると指摘。企業が自ら提案する基準を立法者が受け入れることは避けるべきと述べている。

AI行動規範とは具体的にどのような取り組みを指すのか。ヴェスタガー氏とOpenAIのサム・アルトマンCEOとのビデオ会議で、具体的な意見交換がなされた。その中には、誤情報への対処、透明性の問題、AIツールやコンテンツであることの通知(AIウォーターマーク)、レッドチームによる検証、アルゴリズム外部監査の実施方法、モニタリングとフィードバックループの確保、スタートアップや中小企業の障壁回避方法などが含まれる。

グーグルとのAI協定、英国はAIサミット開催へ

AI行動規範と平行して、欧州ではAI協定(AI Pact)に関する議論も進められている。

Techcrunch5月24日の報道によると、グーグルのサンダー・ピチャイCEOは欧州におけるAI協定の策定に向け欧州連合の議員らと協力することに合意した。このことは、ピチャイCEOと欧州連合域内市場・サービス担当ティエリー・ブルトン氏との会談後に明らかになった。

ブルトン氏の事務所が発表したブリーフィングによると、欧州連合はAI法に先駆けて、積極的にAI協定を策定する方針であり、ヨーロッパおよび非ヨーロッパの主要なAIプレイヤーを巻き込む計画であるという。この取り組みに真っ先に参加したのがグーグルだ。

ピチャイCEOとブルトン氏の会談では、AIによる偽・誤情報対応などが焦点となり、特に選挙前におけるディスインフォメーション対策強化が議論されたという。

欧州連合や米国に加え、英国も規制競争に積極的に参加する方針のようだ。2023年6月7日、英国政府は今秋にもAIの安全性を議論する「AIグローバルサミット」を開催する計画を発表。同サミットでは「最も危険なリスクを評価・監視するための安全対策」の国際的な合意を形成することを目指すとのこと。

欧州連合が策定したルールが世界各国に影響を及ぼす「ブリュッセル・エフェクト」と呼ばれる現象がGDPR(一般データ保護規則)などで観察されているが、AIでもそれが起こるのかどうか、今後の動向が注目される。

文:細谷元(Livit