AIによる「人類絶滅リスク議論」 過度な注目がもたらす新たな問題とは

AIで人類は絶滅するのか?

このところ人工知能(AI)によって人類が滅亡する可能性を唱える「AI滅亡論」が海外メディアの注目トピックとなっている。

理由は、AI界隈で影響力を持つ人物らが、AIによって人類が滅亡するリスクがあり、何らかの規制を設けるべきとする主張を展開するようになっているからだ。

直近の事例としては、サンフランシスコを拠点とする非営利組織Center for AI Safety(CAIS)が5月末に発表した公開書簡が挙げられる。

「Statement on AI Risk」と題されたこの公開書簡は「AIによる人類絶滅リスクを緩和することは、パンデミックや核戦争などの社会的規模のリスクへの対応と並ぶ世界的な優先事項であるべき」と主張するもので、AI界隈の著名人が多数署名したことで注目を集めるようになった。

署名欄には、ジェフリー・ヒントン氏やヨシュア・ベンジオ氏など、AI分野の代表的な研究者のほか、アルファベット傘下のAI開発企業ディープマインドのCEOデミス・ハサビス氏、ChatGPTを開発したOpenAIのサム・アルトマンCEO、AIスタートアップAnthropicのデリオ・アモデイCEO、ビル・ゲイツ氏などが名を連ねている。

2023年3月にもAIリスクに警鐘を鳴らす同様の声明が発表されている。

この声明を発表したのは、Future of Life Instituteと呼ばれる非営利組織。AIが地球的規模で大きな影響をもたらすリスクがあるとして、OpenAIの最新AIモデルであるGPT4よりもパワーのあるAI開発を少なくとも6カ月間停止すべきと主張、イーロン・マスク氏やアップルの共同創業者スティーブ・ウォズニアック氏などが署名したことで話題となった。

このほかにも、ヒントン氏やアルトマン氏など著名な個人によるAI滅亡リスク発言も多くメディアで取り上げられており、注目度は高まる一方となっている。

滅亡リスクへの過度な注目で、実存するリスクが軽視される問題も

この数カ月間で急速に増えたAI滅亡論だが、メディアや専門家の受け取り方は、大きく2つに分かれている。1つは、上記の公開書簡と同じくAI滅亡論を真剣に議論すべきとするもの、もう1つはAI滅亡論がAIに関わる既存の問題を矮小化するものだとする批判的なものだ。

後者はどのような点で批判を展開しているのか、具体的な議論を見てみたい。

Techcrunchは5月30日に公開した記事で、最近のAI滅亡論は、まだ存在しないリスクに対し過度の注意を向け、実在する問題に対する注意を逸らすものであると指摘。

既存の問題として、許可や同意(または支払い)なしでAIのトレーニングに著作権のあるデータが使用されていること、個人データのスクレイピングによるプライバシー侵害、AI企業の透明性の欠如などの問題を挙げている。また、幻覚(hallucination)やバイアスの問題も依然解決していないことに加え、市場構造と支配に関する問題に対する注意を逸らす可能性があるとも指摘している。

同記事は、AIによって人類が滅亡する可能性を主張することが、各国からの支援を取り付ける強力な理由になる可能性にも触れている。実際、最近英国のリシ・スナク首相とアルトマン氏やハサビス氏を含むAI主要企業幹部らとの会合が実施されたが、その直後から英国政府のAI規制方針は大きく転換し、突如として滅亡リスクに関心を持ち始めたという。このことは、英ガーディアン紙が5月26日の記事で詳細に伝えている。

興味深いことに6月12日の報道によると、英国のスナク首相は、各国政府に先駆けて独自にAI安全性研究を進める計画を発表した。このAI安全性研究では、専門タスクフォースを設置し、1億ポンドを投じるという。またこの一環で、英国ロンドン拠点のディープマインドだけでなく、米国を拠点とするOpenAIやAnthropicとも連携する方針で、安全性研究のために英国政府が各企業からAIモデルへの「早期または優先アクセス」を得る約束を取り付けたとも報じられている。

英国のスナク首相

AI研究者らの大半は、AI滅亡論ではなく実存するリスクに注目

Techcruchだけでなく、VentureBeatも専門家の声を交え、一連のAI滅亡論は既存の問題から注意を逸らす可能性があると指摘。その上で、多くのメディア報道では、滅亡論が支配的な見解であるかのように報じられているが、AI研究者の多くがこの見解に反対していると伝えている。

まだ存在しない滅亡リスクではなく、すでに顕在化し具体的に計測可能なリスクに焦点を当てるべきというのが、大多数のAI研究者の声であるという。具体的なリスクとしては、バイアス、デマ、高リスク分野へのAI応用、サイバーセキュリティなどが該当する。

VentureBeatは、非営利団体Cohere for AIの研究者サラ・フッカー氏の発言を紹介。フッカー氏によると、機械学習(ML)の国際カンファレンスInternational Conference on Learning Representations(ICLR)では、AIに関する様々なリスクについて議論がなされたが、滅亡論的なリスクを議題にしていた研究者は少数で、この会議においては存在感は小さなものであったという。

また、ジョージア工科大学のマーク・リードル教授は、有名な研究者や大手テック企業幹部の発言がソーシャルメディアや報道で過度に注目されており、滅亡リスクが事実として報道されるようになっていることが問題だと述べている。この結果、文明全体を危険にさらすようなシナリオだけが重要視される一方、その他の問題は重要でないかのように扱われるようになると警鐘を鳴らしている。

AIスタートアップHugging Faceの機会学習研究者であるヤシン・ジャーナイト氏も、常に滅亡リスクに注目が集まっているため、他の重要問題に対する解決の機会が奪われていると指摘している。

なぜ、こうした滅亡論を唱える組織や起業家・研究者が増えたのか。オレゴン州立大学のコンピューターサイエンス名誉教授であり、機械学習分野の先駆者として知られるトーマス・G・ディタリッチ氏は、滅亡論が増えた要因の1つとして、金銭的なインセンティブがあると推察している。

Machine Intelligence Research Institute、Future of Life Institute、Center for AI Safety、Future of Humanity Instituteなどの組織が、AIによる滅亡リスクが現実の危険であると主張することで、より多くの研究資金・寄付を獲得できる構造があり、これがインセンティブになっていると述べている。

このほか、AI研究第一人者の1人アンドリュー・ウン氏が、AIによって人類が滅亡するのではなく、人類滅亡リスクを解消するカギとなるのがAIであるという主張を展開するなど、AIによる滅亡論への反対意見を唱える著名研究者や起業家は少なくない。

それでも、大手メディアやソーシャルメディアでのAI滅亡論への注目度は高く、今後英国のように政府予算を充てるケースも増えてくることが予想される。

文:細谷元(Livit

モバイルバージョンを終了