AGIは人類を滅ぼす?安全なAI開発に向けて

AGIが実現すると、その先にはどのような未来が開けるのだろうか?

AIの研究者で作家のエリエーザー・ユドコウスキ―氏は、「AGIは人類を殺す」と、警告を発している。同氏は今年4月の講演で、「私の予測では、これは最終的に、私たちが価値や意味があるものと認識するものを望まない、私たちよりも賢い何かに直面することになる」と述べている。

通常の科学プロセスでは、無制限の時間の中で失敗と成功を繰り返すことで問題を解決してきたが、AGIの場合は再試行できない点が問題なのだと主張する。「『ははは、おっと、確かにうまくいきませんでした』とは言えない。(その場合は)みんな死んでいるから」(ユドコウスキー氏)

彼の提案する解決法は、大規模なAIトレーニングの実行を禁止すること。そのための国際連合が必要だと訴える。

ユドコウスキ―氏の意見は、2010年代に「極端だ」と捉えられていたが、ChatGPTの最新版である「GPT-4」が開発された現在、そのリスクは業界内でもリアルなものとして捉えられるようになってきた。今年3月、イーロン・マスク氏を含む著名なAI関係者が「GPT-4」よりも能力の高いAIシステムの開発を6カ月間停止するよう呼びかける公開書簡に署名したのは、記憶に新しい。

©Vexels

前述のラッセル教授も2023年9月にCNNによるインタビューで、「現在のアプローチが続けば、最終的に私たちは機械を制御できなくなるだろう」との見方を示している。しかし、彼は「人間にとって有益なAIシステムにつながる別のルートを取ることもできる」とし、そのためには、現在「ブラックボックス状態」になっているGPT-4の内容をオープンにし、従来とは異なる基盤の上で、AIをもう一度開発する必要があると訴える。

同氏は、AIが人間の利益を促進するためには、前もって固定された目的を設定するのではなく、むしろ人間が追求する利益が何であるかをAIが知らないことを最初に認識し、人間の利益を特定し、それに基づいて行動するための証拠を追求するように設計されるべきだと考えている。

そうすれば、例えば「地球温暖化を解決する」という目的のために、空気中から全二酸化炭素を除去するというような、人類にとって好ましくない結果は避けられるという。同氏はまた、AIの安全確保に向け、「各国でAIの規制機関が必要になるだろう」との見方を示している。

実際、2023年11月1日には、ロンドン郊外で各国の政府高官や企業の代表が集まり「AI安全サミット」が開催された。同サミットでは、米英政府が設立する研究機関で、企業が開発するAIの安全性を事前に検証することなどが決定。制御不能なAGIが出現する前に、人類は急速に規制環境を整備する必要に迫られている。

AGIがもたらす社会的変化

それでは、私たちはAGIでなにができるようになるのか?

試しにChatGPTで入力してみたところ、

  1. 問題解決と意思決定:医療診断、科学研究、経済予測、環境問題の解決などさまざまな分野で効果的に活用できる
  2. 労働力の代替:人間は高度な創造的仕事や人間らしい相互作用に集中できる
  3. 新しい科学的発見:AGIは膨大なデータを分析し、パターンを見つける能力を発揮
  4. 教育と個別指導:個々の学習スタイルに合わせた教育を提供
  5. 対人コミュニケーション:顧客サービス、カウンセリング、教育、娯楽などの分野で、人間とのコミュニケーションが可能になる
  6. 倫理的な課題の解決:環境問題や社会的不平等の解決に向けた提案などを行うことができる

といった回答が返ってきた。

特に②の労働力の代替という観点は、AGIがもたらす社会的変化に関する議論でよく挙げられている。人間の仕事がAGIで置き換えられることによって職を失う人が続出すると見られるため、「ベーシックインカムの導入は不可欠」との意見も多々ある。また、AGIによりあらゆるものの生産効率が上がると、人間の衣食住コストは限りなくゼロに近付くとの見解から、人間が労働から解放されることも予想されている。

一方、AGIがすべてを考案・製作してくれるならば、人間がなにかを新たに探求しようとする意欲は失われるかもしれない。アニメーション映画『ウォーリー』(2008年)では、未来の人類はゴミだらけになった地球を離れて宇宙船で暮らしており、そこでは食料が流動食になって自動的に供給され、丸々と太った人たちが日がな1日スクリーンを見ながら自動運転の椅子に座って過ごしている。これは私たちが望む未来の姿だろうか?

AGIを人類にとって安全なものにするための議論とともに、私たちはAGIで何をしたいのかを真剣に考える時期に来ているのではないだろうか。

参考:When will singularity happen? 1700 expert opinions of AGI [2023]
文:山本直子
編集:岡徳之(Livit