INDEX
OpenAI、グーグルなどがAI業界団体を設立
ジェネレーティブAI開発で競合するOpenAI、グーグル、マイクロソフト、そしてAnthropicの4社は2023年7月26日、フロンティアAIの安全かつ責任ある開発を進めるための業界団体「Frontier Model Forum(フロンティア・モデル・フォーラム)」を設立したことを発表した。
同フォーラムでは、メンバー企業の技術的な専門知識と運用経験を活用し、技術的な評価とベンチマークの開発、ベストプラクティスとスタンダードの普及支援などを行うという。
同フォーラムでは、4つの目標が掲げられている。
1.フロンティアモデルの安全性研究の推進:リスクを最小限に抑え、責任あるフロンティアモデルの開発を促進し、AIの能力と安全性を評価する独立した基準を設立
2.責任あるフロンティアモデルの開発と展開に関するベストプラクティスの特定:ベストプラクティスに関する情報を共有することで、AIの性質、能力、限界、および影響に関して、一般の人々が理解できるように支援
3.政策立案者、学者、市民社会、企業との協力:AIの信頼性と安全性リスクに関する知識を共有
4.大きな社会課題に対応するAIアプリケーションの開発支援:気候変動の緩和と適応、早期のがん検出と予防、サイバー脅威などに対する支援
現在このフォーラムは、上記4つの企業によって構成されているが、今後さらに会員数が増える可能性もある。フォーラムの設立発表では、現存する最も先進的なAIモデルの能力を凌駕し、様々なタスクをこなせるモデルを「フロンティアモデル」と定義、このフロンティアモデルの開発・展開に取り組み、かつフロンティアモデルの安全性に対して強いコミットメント(技術的、制度的)を持つなどの条件を満たしていれば、同フォーラムへの参加資格を得るという。
まずは今後数カ月で、フォーラムのアドバイザリーボードを設立し、多様なプレイヤーからの視点をインプットすることで、戦略と優先事項の指針をさらに明確化する計画という。また組織体制、ガバナンス、資金調達などに関するルール制定も実施する予定だ。
フロンティアモデルとは、懸念されるリスク
フロンティアモデルと呼ばれる強力なAIの開発や能力に関して基準・標準を設けるべきという同フォーラムだが、その設立の中心となっているのはおそらくOpenAIであると思われる。
OpenAIは2023年7月6日に発表した論文の中で「フロンティアモデル」のリスクに言明し、そのリスクを緩和するには包括的な規制・基準が必要であるという主張を展開しているのだ。
同論文を参考に「フロンティアモデル」とはどのようなAIで、具体的にどのようなリスクがあると考えられているのか、その詳細を見ていきたい。
同論文は、危険な能力を持つ可能性が高い高度なファンデーションモデルを「フロンティアモデル」と定義。意図的、誤用、また事故によって、身体的な危害だけでなく、世界規模での社会機能の混乱などを引き起こす可能性があるAIモデルであると述べている。その上で、現存するAIモデルにおいては、フロンティアモデルに該当するモデルはないものの、既存モデルの能力の高さを考慮すると、次世代のファンデーションモデルは、フロンティアモデルと見なすに十分に高度な能力を持つ可能性があると指摘している。
危険な能力に関して、具体的な線引きが難しいとしながらも、以下のような事例を挙げている。
・素人でも新しい生物・化学兵器を設計・合成できる
・多様なメディアを使って、パーソナライズされた高度に説得力のあるディスインフォメーションを最小限の指示で生成・拡散できる
・壊滅的な被害を引き起こす可能性のある前例のないサイバー攻撃能力を得る
フロンティアモデルは「予期しない能力の発現」「展開時の安全性確保」「拡散」という3つの問題があるため、既存のソフトウェアやAIモデルに対する規制では不十分であると、同論文は指摘している。
たとえば、特定領域における特定ユーザーに対して規制をかけたとしても、フロンティアモデルの「予期しない能力の発現」が起こった場合、その影響は特定領域の特定ユーザーの範囲を超えダウンストリームユーザーに波及してしまい、規制が意味を持たなくなってしまう可能性があるという。
こうした予期しない能力の発現は、これまでの研究でも多数報告されている。AIモデルのパフォーマンスは、追加の計算、パラメータの調整、データの追加・変更・修正などで向上する傾向があり、実際にモジュラー演算、言語読解、ペルシャ語での応答などで突然の能力向上があったという。また、AIモデルを変更・調整した場合やAIがオンラインで学習した際にも予期しない能力の発現がみられる。
さらに、AIモデルのテスト段階とデプロイメントで振る舞いが異なるという現象も機会学習の分野で知られており、フロンティアモデルがデプロイされた後に、危険な振る舞いが発現し、「野生化」してしまう可能性は特に懸念すべき事項であると指摘している。
ルールづくりの主導権、欧州の動き
今回、OpenAI、グーグル、マイクロソフト、AnthropicというジェネレーティブAI領域における主要企業が業界団体を設立した格好となるが、規制当局による一方的な法規制議論を避け、自分たちでルールづくりを進めたいという狙いもあるようだ。
実際、欧州と米国ではAI規制議論が活発化しているところ。
欧州では、ジェネレーティブAIを含めAI全般を規制する「AI法」の議論が加速している。2023年6月14日、欧州議会ではAI法案に関する交渉権限を確認するための投票が実施され、議論が次の段階に進むことが決まった。
この投票では、欧州域内で開発・使用されるAIは、EUの権利と価値観に一致するものでなければならないことが定められ、具体的に以下のようなルールとその交渉準備が整備された。
AI活用が完全に禁止される活動:
・公共の場での「リアルタイム」の遠隔生体認識システム
・「ポスト」遠隔生体認識システム。ただし、重大犯罪の捜査に対する司法権限の付与を得た法執行機関を除く
・感性の特徴(例:性別、人種、民族、市民権の状態、宗教、政治的傾向)を使用する生体認識分類システム
・プロファイリング、位置、過去の犯罪行為に基づく予測的な警察活動システム
・法執行機関、国境管理、職場、教育機関での感情認識システム
・インターネットまたはCCTV映像からの顔画像の無差別スクレイピングによる顔認識データベースの作成(人権とプライバシーの侵害)
また、選挙において有権者に影響を与えるAIシステムを規制対象となる「高リスク」に分類することなどが決定された。
さらには、ChatGPTなどのチャットボットを運営するOpenAIのような企業に対して、リリース前のリスク分析、著作権情報の要約公開、違法コンテンツ生成に対する保護策の実装なども盛り込まている。
今後これらの争点が、欧州委員会、欧州議会、欧州理事会の三者による合意形成のための会合「トリローグ」で議論される予定だ。ただし、一般的に欧州理事会は産業寄りの立場を取る傾向が強い一方、欧州議会は欧州の権利・価値観に重きを置く傾向があり、議論が長引く可能性もあるとされる。
AI規制に関する米国の動向
一方米国でも、バイデン大統領がアマゾン、グーグル、メタ、マイクロソフト、Anthropic、Inflection、OpenAIの代表とホワイトハウスで会談を実施し、AIの安全基準に対するコミットメントを強めるという発表を行っている。
ホワイトハウスは声明の中で、「バイデン・ハリス政権は、これらの企業から自主的なコミットメントを得て、安全かつ透明性のあるAI開発に向けて前進することを確認した」と発表。その上で、AIシステムのリリース前の「外部」セキュリティテスト、サードパーティによるAIシステムの脆弱性の発見と報告、AI生成コンテンツへのウォーターマーク挿入などに関して、これらの企業と合意に至ったと報告している。
ただし、これらは企業の自主的な取り組みに依存するもであり、特に強制力はない。ガートナー・リサーチのバイスプレジデント、アビバ・リタン氏はComputer Worldの取材に対し、バイデン大統領によるこのコミットメントは、曖昧なものであり、AIリスクをコントロールしようという試みとしては失望させるものだと批判を展開している。
フロンティア・モデル・フォーラムの創設により、主要AI企業によるルールづくりの立場は強化されるのか。国家アクターとどのような駆け引きが展開されるのかに注目が集まる。
文:細谷元(Livit)