INDEX
急速に進化を続けているAI技術。世界では今、AIの信頼性や安全性に関する議論が高まっている。今年11月にはイギリスでAI安全サミットが開催され、「対応は急務」とする宣言を採択したばかりだ。
AIモデルのデータがどのようなデータで訓練されているのか、またデータの作為的操作はないかなど、訓練データに関する安全性にも注目が集まっている中、AIの安全を確保するには、現在どのような手段があるのだろうか。
AIが作り出す虚偽の世界
進化が加速しているAIに、人間がいつか(まもなく)支配される日が来るのではないかと懸念する声が多く聞こえてくる。想定以上のスピードで進化するAIに、専門家ですら恐怖を覚えている現状だ。事実ChatGPTが司法試験突破に成功し、弁護士が法廷でChatGPTを使用した例もあり、私たちの生活に確実に忍び寄っているテクノロジーであると実感できる。
今年アメリカの法廷でChatGPTを使用したケースは、機内サービスのカートでケガをしたと航空会社を訴える裁判で、参照する他の判例の検索に利用されたとするものだ。のちにそれが実在しない判例だと判明し、弁護士がChatGPTを利用したと告白して物議を醸した。
弁護士の主張によると、ChatGPTが「生成」するものとは気づかずに、検索機能だと信じていたとのこと。また、判例詳細をChatGPTに求めた際にもデータが生成されたため、それもまた「検索結果」だと信じて疑わなかったとしている。
主張の真偽は確かではないが、我々がAIを利用しているうちに忘れがちなのは、「AIモデルが現実ではない」ということと、「現実を作り出すものでもない」ということであると専門家が警鐘を鳴らしている。
このような誤情報や、間違った回答をAIが正々堂々と生成することが問題視されているものの、これから私たちが最も懸念しなければならないのは、人間の命を危険にさらす可能性のあるAIの利用である。例えば、交通機関や防衛、警備など。この分野でのAI活用に、誤作動や間違いは決して許されない。
さまざまな安全検証方法
安全性に欠かせないAIモデルの検証方法は、現在、ハードウェア検査やシステム検査、持続的検証、Van Eckレディエーション分析などがある。これらの方法は、AIが意図した目的で訓練され、適切にデプロイされていることを確認するためのものだ。
例えばハードウェア検査は、サブシステム上のAIとそれが制御する機能について検証するもので、AIチップの存在と制御内容を検証。また、システム検査は、システム上でAIが制御すべきでない「武器の行使」などといった特定の機能を制御できないことを検証する。
初期段階の検査の後に実施される持続的な検証とは、AIモデルがデプロイされたのちに、変更や改ざんがされていないことを確認するもので、暗号学的ハッシュやコードの難読化、Van Eckレディエーション分析などが挙げられる。
暗号学的ハッシュとは、情報セキュリティの分野で用いられる関数で、任意のサイズのメッセージを固定サイズのメッセージに変換する暗号プリミティブ。文字列に置き換えられたコンテンツや情報は復元することが事実上困難で、クリプト通貨やブロックチェーン情報の安全性確保に利用されている。
暗号化ハッシュを使った検査によって、データやコードを表面化させることなくシステムに変更がないことを確認できるというもの。言うなれば、封筒の封印のようなもので、破れていれば封筒の中身を見なくてもそこに手が加わったことがわかる、という仕組みだ。
コードの難読化は、開発中のメソッド。システムのコードを基本的なレベルで人間に読み取りにくくすることで、同時に改変も難しくする。無秩序な内容の本を読んでいるようなもので、理解することも改ざんすることも無理な内容となっている。
Van Eckレディエーション分析は、電子機器が動作時に放射する電磁波のパターンに注視するもの。放射される電磁波にはさまざまな電子情報が含まれており、この漏洩電磁波を傍受してPCのディスプレイ画面を再生することも可能というリスクの高い電磁波だ。AIのような複雑なコンピューターシステムでは、複数のプロセスが同時に駆動するため電磁波が文字化けを起こすことが多く、特定のコードを引き出すことが難しいとされている。
Van Eckの技術は、システム上の主要な変化(新しいAIコンポーネントの導入など)を検知できる一方で、検査の際には、AI開発者などが機密にしたい情報などに触れたり、センシティブな内容を理解したりすることがないことが特徴である。
さらに重要な訓練データ
現在、こうしたAIモデルの検査・検証よりも重要だと見られているのが訓練データの検証だ。
すべてのAIモデルは、新しいデータが入力された際に、それをどう解釈し、分析し、どのようなアクションを起こすべきか、データで訓練されている。訓練のプロセスには膨大なテクニカル詳細が関わっているが、簡単に言えば、AIが「人間と同じ方法で理解」できるようサポートする役割がある。しかし、理解のプロセスが人間と同じであれば、同じような落とし穴にも陥りやすい。
理想的には、訓練データは、AIモデルが訓練後にデプロイされた後で入力されるデータと同じデータセットであるべきである。例えば、優秀な従業員のデータセットを作成し、それを使ってAIモデルを訓練することで、応募者の履歴書を参照しながら、AIが効率的に優秀な新入社員候補を予測できるようになる。
Amazonはこの方法を実際に採用し、訓練通りの結果を出すことで客観的に大きな成功を収めた。しかし、AIモデルが性差別をするように訓練されてしまったというミスもあり、注目を集めた。
2014年からAIによる人事採用プログラムを構築していたAmazonでは、100の履歴書から5人のトップ候補を選別する、という効率的な採用活動を展開する先駆者として期待されていた。しかし2015年に、ソフトウェア開発者と、その他の技術職で性差別が行われていることに気づいた。
Amazonのコンピューターモデルは、過去10年の応募履歴書で訓練されており、ほとんどの候補者が男性であったことが原因で、男性が大多数を占める技術職ならではの影響が性差別と言う形で出てしまっていた。コンピューターモデルが、「男性」という要素をより好ましく、「女性」は不利な条件として訓練していたからだ。
その後Amazonはプログラムを修正したが、機械が別の要素での差別をしないという保証はない、とされ同社では問題が指摘されて以降、採用にこのプログラムを使用していない、としている。
さて、ここで使用したデータを人間が理解すると、2つの結論へと導かれる。1つ目は「男性が女性よりも能力が高い」、そして2つ目は「男性の採用が女性よりも多かったため、データが捻じ曲げられた」というもの。しかしながら、AIには2つ目の結論を推察する知能が無いため、1つ目の結論で性差別をしてしまったのだ。
このように「データ」と人間のように理解するであろうと思われたAIの「能力」とのギャップが、このような結果、ミスを生み出したのだ。
訓練データの品質
データのほとんどは、社会的にも歴史的にもバイアスがかかっているとされている。人種、階級、性別に関する偏見は、データの奥深くに刷り込まれているだけでなく、データの管理が非常にずさんなことがほとんどなのも一因。多くの組織が、自社で所有しているデータの品質に無頓着で、誰もそれを整理整頓しようとしていないことも、ずさんなデータの要因だ。
「ゴミを入れればゴミが出てくる」とは、コンピューター業界で言い古されてきた言葉であるが、いま改めてAIの訓練データに注目が集まり、この言葉の意味を実感することになっているのが現実だ。
安全で正確、倫理的なAIの作成には、検証可能性と透明性がカギとなる。同時に、エンドユーザーはそのAIが適切なデータで訓練されていることを知る権利がある。そこで、ゼロ知識暗号を利用しデータが改ざんされていないことを証明することで、そのAIモデルが最初から正確で、改ざん防止のデータセットで訓練されていることを保証できる。
今後AIを利用する側も、AIを使ったサービスを提供する側も、現時点でどのような検証方法があり、AIの利用、モデルの変更、オリジナルの訓練データのバイアスを検知できる能力を認識している必要がある。さらに、こうしたツールを構築するプラットフォームには、強力なAIモデルで危険な問題を引き起こし得る、不満のある従業員や産業・軍事スパイ、または単なるヒューマンエラーから保護する役割がある。
例えば、会社に不満を持った従業員が悪意のある改ざんをして企業に損害を与えたり、敵のスパイがAIを操作・改ざんして戦闘機を操ったり、戦車を動かしたり、ミサイルを発射したりできるようになってしまう可能性を排除しなければならない、ということだ。
AIと共に進化し続けなければならない安全検証
もちろん、検証がすべてのAI関連の問題を解決してくれるわけではないものの、今後あらゆる分野での活用が進むにつれ、AIモデルが意図したとおりに機能し、予期せぬ展開や改ざんを即座に検知する能力を有することを確実にすることが、永遠の課題となってくるであろう。安全性を脅かす活動を始める犯罪者もこれから増えてくることは確実だ。
高品質のデータも、放置すれば腐り始め、他のデータも汚染し大量のゴミデータになり得る。使えるデータと、ゴミデータを振り分けるのは未だ人智が頼りなのも事実だ。これまでは言わば放置されてきたデータの品質と管理が、今後AIが発展していく中で重要なカギとなりそうだ。
文:伊勢本ゆかり
編集:岡徳之(Livit)