英当局、マイクロソフトのゲーム大手買収阻止に続き、ジェネレーティブAI規制に向けた調査を開始、米国ではAIを公開評価へ

英当局、AI規制に向け調査開始

マイクロソフトによるゲーム大手アクティビジョン・ブリザードの買収を阻止したとして注目を集めた英規制当局、競争市場庁(Competition and Markets Authority=CMA)が、ChatGPTなどのジェネレーティブAIモデルに対する調査を開始するとして、その動向にさらなる関心が集まっている。

CMAは2023年5月4日、英国政府によるAI方針を定めたホワイトペーパーに基づき、ジェネレーティブAIの基礎モデル(foundation model)の開発状況を把握し、将来における使用条件や原則を評価するため、調査を開始することを発表した。

第1回目となる調査では、基礎モデルの競争市場とその利用がどのように発展するのか、また、これらのシナリオで競争と消費者保護にどのような機会とリスクがもたらされるのかが評価され、最終的に競争と消費者保護を目的とする指針が策定される。

調査はまず、6月2日までを目処に関係者らから意見とエビデンスを集め、分析を実施、2023年9月に調査結果をまとめ報告書として公表する予定だ。

この動き自体は、ジェネレーティブAIを直接的に規制するものではないが、調査の結果次第では、マイクロソフトによるアクティビジョン・ブリザード買収案件のような厳しい措置が講じられる可能性もあり、その動向が注目されるところ。

CMAの発表では、直接的な言及はなかったが、OpenAIのChatGPT、DALL-E、またグーグルのBard、NVIDIAのClaraなどの人気ジェネレーティブAIが調査対象になると思われる。

調査の範囲はあくまで競争と消費者保護。ジェネレーティブAIの基礎モデルに関しては、著作権、知的財産、オンラインにおける安全性、データ保護、セキュリティの問題も指摘されているが、今回の調査には含まれない。

英国政府はAIに関して5つの原則、「安全性・セキュリティ・堅牢性」「透明性と説明可能性」「公正性」「説明責任とガバナンス」「競争と救済」を定めている。ジェネレーティブAIの進化と普及に伴い、政府は各機関に対し、同テクノロジーがこれらのAI原則に照らし合わせて、どのような状況となっているのか、それを把握するよう求めており、今回のCMAの調査は政府要請の一環とみられる。

米国ではハッカーによるジェネレーティブAIの公開評価

OpenAIやグーグルなど、現在人気を博すジェネレーティブAIのほとんどが米国発のもの。

本国米国でも、ジェネレーティブAIの機会とリスクを洗い出す動きが活発化している。

注目される動きの1つが、バイデン政権の呼びかけで実施されるジェネレーティブAIの公開評価だ。

一般的に、AIアプリケーションのセキュリティテストで効果的な手段の1つとされるのが、「敵対的攻撃(Adversarial Attack)」を利用したテスト。AIモデルに対し、入力データを細工することで、モデルの誤判定を誘発させるなどし、アプリケーションの脆弱性を特定する方法だ。

バイデン政権が「責任あるAIを推進するための措置」として、既存のジェネレーティブAIシステムの公開評価を行うことを呼びかけたところ、毎年ラスベガスで開催されるハッカーイベント「DEF CONセキュリティカンファレンス」(8月10日〜13日)で、公開評価が実施されることになった。

この公開評価には、OpenAI、グーグル、マイクロソフト、NVIDIAなどの大手企業に加え、Anthropic、Hugging Face、Stability AIなどジェネレーティブAIの主要企業のほとんどが参加する予定という。

DEF CONセキュリティカンファレンスは、多くのセキュリティ研究者が集まるイベントで、新たな脆弱性が発見・開示される場所としても広く知られている。

今回のDEF CONでのジェネレーティブAI公開評価を担当するのは、the AI Village(AIビレッジ)と呼ばれるハッカーコミュティー。同コミュティの創設者であるスヴェン・キャテル氏は、VentureBeatの取材で、大手企業におけるジェネレーティブAI開発の問題について指摘している。

キャテル氏によると、一般的に企業は脆弱性テストを実施する際、専門のレッドチームを活用する。レッドチームとは、潜在的な問題を検出するために攻撃をシミュレートするサイバーセキュリティグループの一種。キャテル氏は、ジェネレーティブAI開発において、プライベートな開発プロセスが多く、レッドチームの評価を受けたケースが少なく、これがセキュリティ問題の1つにつながっていると指摘する。

公開評価では、OpenAIなどの参加ベンダーが大規模言語モデルへのオンサイトアクセスをAIビレッジコミュニティに提供。この環境下、「キャプチャ・ザ・フラッグ」と呼ばれるポイントシステムのもと、ハッカーらの攻撃による脆弱性検知が実施される。

最も多くのポイントを獲得したハッカーには賞品として「ハイエンドのNVIDIA GPU」が贈呈されるという。

欧州ではAI改正案で合意

一方欧州では5月11日、EU議会で議論されてきたAI法改正案がまとまり、合意が形成されたばかり。これにより、ジェネレーティブAIを念頭においたAI法の施行に一歩近づいたことになる。普及して間もない「ジェネレーティブAI」を規定する法律を持つ国は、現在のところ確認されておらず、同法案が可決されれば、ジェネレーティブAIを規制する世界初の法律が誕生することになる。

今回の合意では、OpenAIのChatGPTなどのジェネレーティブAI技術を支える「基礎モデル」に対する要件が盛り込まれた。具体的には、AIモデル開発企業に対し、安全性のチェック、データガバナンスの措置、リスク軽減策の適用義務を課すことや、システムのエネルギー消費量やリソース使用量の削減、AI法によって設立されるEUデータベースへのシステム登録も義務付けられるという。

また、ジェネレーティブAIが生成するコンテンツに関して「適切な保護策」を適用し、AIのトレーニングに使用された著作権資料の要約を提供することもAI企業に課されることになる。

ジェネレーティブAIに対する具体的な規制やその議論は、EUが最も進んでいるといわれている。今後は、各国のベンチマークになっていく可能性もある。

文:細谷元(Livit

モバイルバージョンを終了