生成AIの劇的な進化が、2024年の米大統領選(投票日11月5日)をカオスに陥れる可能性が出てきた。
選挙関連のディープフェイク動画はすでに複数出回っているが、昨年6月には共和党のナンバー2候補とされるフロリダ州知事、ロン・デサンティス氏陣営が作ったフェイク画像が登場。候補者指名争いで圧倒的トップを走るトランプ前大統領のフェイク画像を、その旨の表示なしにツイッター(当時)に投稿し、印象操作を行ったと報道された。
今はまだ、共和党と民主党がそれぞれ候補者指名を争っている段階だが、選挙戦後半の民主党vs共和党の決選では、強力かつ有効なネガティブキャンペーン・ツールとして、生成AIを活用したディープフェイクが氾濫する可能性がある。
大統領候補の各陣営や支持者、利害関係者だけでなく、自国に有利となる介入や揺さぶりを狙う外国勢力、さらには再生数を稼ぎたい無関係な個人なども参戦し、各方面が入り乱れたでっち上げ合戦の様相となる可能性も否定できない。
対して、米国には選挙戦での生成AI利用に関する明確な規定は存在せず、ファクトチェックの態勢が整っているとも言いがたい。こうした中、ChatGPTのOpenAIや、グーグル、メタなどのビッグテックは、個別に対応する意向。一部利用制限を加えるとともに、選挙関連の広告主に対し、生成AIを利用した場合の表示を求める方針だ。
ただ、それが果たして機能するのか。大統領選におけるディープフェイクの影響と、ビッグテック各社の対策に目を向けたい。
民主主義への「脅威」、ディープフェイクが政治的分断の火種に
米大統領選でフェイク情報が飛び交うのは今に始まった話ではなく、8年前、4年前にも話題となった。ただ、生成AIはここ数年で劇的に高度化、簡易化、低コスト化しており、いまや誰もが簡単に、高レベルのディープフェイク動画を作成することが可能だ。
フェイク情報やフェイク動画でゆがめられた事実が、広く有権者の投票行動に影響を及ぼす事態となれば、「選挙の正当性が揺らぐ恐れがある」(チャック・シューマー上院院内総務)、「民主主義の礎に対する深刻な脅威になり得る」(アリシア・ソロウ=ニーダーマン ジョージ・ワシントン大学ロースクール准教授)と、当局者や識者は指摘する。
米調査会社ユーラシア・グループは「2024年の世界10大リスク」のトップに、「米国の政治的分断」を挙げたが、ディープフェイクがこれを後押しする可能性すらある。
一般の有権者ももちろん、そのリスクを知らないはずがない。AP通信とシカゴ大学NORC(全米世論調査センター)、同大ハリス公共政策大学院が23年末に行った世論調査では、成人の58%が「大統領選ではAIツールが虚偽や誤解を招く情報を拡散させる」と考えていることが分かった。ただ、6割弱という数字が多いのか少ないのか、かなり微妙だ。
フェイク情報が存在すると理解していても、視覚的、聴覚的な再現レベルの高さゆえに、ディープフェイクは信頼性や説得力を生む。ネット慣れしていない層を中心に、精巧なフェイク動画・音声を信じる有権者が少なからずいるはずだ。
さらに言えば、ファクトチェックが示す事実に興味を示さず、自分の支持する陣営に有利なフェイク情報を「オルタナティブファクト」(もう一つの事実)として積極的に受け入れる人達も少なくない。過去の大統領選でも実際に、フェイク画像のリポストや便乗の動きが広がるという現象があった。そうなれば、何が事実かはどうでもよくなり、真実とフェイクとの境目があいまいになりかねない。
本来なら、生成AI規制の速やかな導入が期待されるところだが、アレンAI研究所の機械学習リサーチャーであるネイサン・ランバート氏らによれば、大統領選の影響で、逆に規制への取り組みが遅れる可能性があるという。
2023年10月に「AIに関する大統領令」、フェイク防止効果は期待薄
バイデン大統領は23年10月末、AIの安全性確保やプライバシー保護に関する規制を定めた大統領令に署名した。AI開発者に新サービスの安全性評価を義務付けるなど、透明性の向上と新たな基準の導入を求める大掛かりな内容。AI規制でEUより出遅れている米国にとっては大きな一歩だ。
ただ、ベストプラクティス(最良の取り組み)に基づく各方面の対応を求めたのがこの大統領令であり、生成AIの悪用を止めるための即効性があるわけではない。生成AIコンテンツを政治キャンペーンで使用することに対する連邦規則は今のところ存在しない。
また、『The Princeton Legal Journal』によれば、誹謗中傷に当たるフェイク情報をホストする第三者のウェブサイトは責任を問われず、そのため、リポストなどの拡散を防ぐ手段もないという。
こうした中、ビッグテック各社は個別に対策に動く方針だ。
ビッグデックはフェイク防止策に個別対応、「無害化は不可能」か
例えば、アルファベット社傘下のグーグルは、自社のAIチャットボットBardやSGE(生成AIによる検索体験)機能 において、AIツールを用いたコンテンツのデジタル生成・改変を行った場合、その旨を開示するよう選挙広告主に要求。さらに回答できる選挙関連のクエリの種類を制限する方針という。
メタ社は政治キャンペーンにおける新世代型の生成AI広告製品の使用を禁止。さらにフェイスブックやインスタグラムの広告主に対しては、選挙広告の作成・変更にAIツールを使用した場合、その旨を表示することを求める。外国の国営メディアに対しては、ラベリングした上で、米国民をターゲットとした広告をブロック。選挙戦終盤の最終週には新たな政治広告を禁止するなどの措置を明らかにしている。
『Forbes』によれば、ChatGPTやDall-Eを展開するOpenAIは自社ツール上で、政治キャンペーンやロビー活動を行うことを禁止。ツールを使った候補者や当局者へのなりすまし行為も禁止し、有権者が画像を信用するかどうかを判断するのに役立つ認証ツールを導入するとした。
また、マイクロソフトは候補者の肖像権の保護やコンテンツの認証を含む一連のサービスを提供する方針だ。ただ、OpenAIの言語モデルGPT4を使ったマイクロソフトのCopilot(旧称Bing Chat)について、米ITメディア『Wired』は12月、陰謀論や誤情報、古い情報を提供していると報道。しかもこれは個別のミスではなく、システム上な問題だと指摘する外部のリサーチ結果を伝えた。
これに対し、マイクロソフトはAIチャットボットが「信頼できる」結果を提供できるように努力するとしながらも、ある程度の不備を認め、ユーザーには「出典やウェブリンクのチェックで詳細を確認するなど、最善の方法でCopilotを利用することを勧める」とのコメントを発している。全面的な対処はやはり難しく、同社が目指す「選挙の保全」への道のりはかなり険しそうだ。
一方、選挙関連の誤報の報告ツールを廃止し、選挙保全対策チームを解雇するなど、デマや誤情報への取り組みに消極的であるとの批判を受けているX(旧ツイッター)は、フェイク情報に対抗するための主な手段として、クラウドソーシングによるファクトチェック・スキーム「コミュニティ・ノート」を宣伝している。ただ、この方法には欠陥があり、エラーが発生しやすく、不十分との見方が強いという。
このように、各社の対策は様々で、温度差もあるが、どの程度の効果が見込めるのかはいずれも未知数。米テックメディア『VentureBeat』によれば、前出のアレンAI研究所のランバート氏はこの選挙戦において、ディープフェイクを“無害化”し続けることはほぼ不可能との見方だ。
ボイスクローニングのスタートアップInstreamaticも渦中に
ビッグテックだけでなく、悪用対策を準備せざるを得ない新興企業もある。例えば、AIボイスクローニングのスタートアップ、Instreamatic(フロリダ州本社)がその1社だ。
同社のソリューションを使えば、候補者はテーマに応じて、高度にターゲット化されたナレーション入りの動画・音声広告を即座に生成することが可能。同社はデモ動画で、オバマ元大統領の音声を再録音なしに複製し、ホームレス対策に関する既存の動画を、大雪被害を受けてインフラ整備の必要性を訴えるという、まったく別のメッセージを持つナレーション動画に作り替えた。
『Venturebeat』の報道では、同社は選挙戦でのフェイク情報に利用されないよう、自社製品に防護壁を組み込んだという。また大前提として、政治広告向けサービスはサインアップすれば誰にでも利用できるものではなく、音声の使用許可を確認することが必要で、仮に政治広告に問題が発生した場合は即座に削除するとした。
政治広告の世界を作り変える意図はなく、あくまでも、すでに存在する退屈な手作業プロセスを自動化するのが自社ビジネスの狙いだと付け加えている。
「AI由来の偽情報」は世界最大のリスク、選挙イヤーの24年が転換点
生成AIが急速に進化してから初めて迎える米大統領選。前出のランバート氏は「人々がAIをどのように不正利用し、その問題の原因がどう分析され、メディアによってどう扱われるか。今回の米大統領選はそれを知るストーリーの決定的要素になる」と指摘している。世界が注視する超重要イベントの米大統領選が、生成AIの発展や規制の方向性を決める上で、重要な節目となる可能性がありそうだ。
また、2024年はまれに見る選挙イヤー。米国のほか、インドやロシア、台湾(1月13日に終了)で大統領選あるいは総統選が実施される。国政選挙は50カ国以上で行われ、世界人口の半数以上が投票に行くことになるという。
その結果は民主主義の未来や、人権、安全保障、気候変動対策などの様々な分野に重大な影響をもたらすことになるが、生成AIを使ったフェイク情報がどの程度、人々の決定に絡むのか。
世界経済フォーラム(WEF)は1月10日に、『グローバルリスク報告書2024年版』を発表し、「AIを通じた誤報・フェイク情報」を短期(今後2年)のグローバルリスク・ランキングのトップに据えた。2位の「異常気象」に続いて「社会の二極化」が3位で、以下、「サイバー犯罪とサイバーセキュリティーの低下」「国家間武力紛争」「不平等」。ニセ情報の広がりと社会不安との絡み合いが世界のリスクの中心になるとしている。
文:奥瀬なおみ
編集:岡徳之(Livit)