新たなAI(人工知能)が開発され、応用領域が広がった。そういったニュースが増えている。AIの開発は世界規模で進み、競うようにそのスピードを上げる。

仕事や生活の中で、AIが搭載された機器を使用することも多くなった。身の回りにAIが増えるに連れ、便利さと共に「不安」を感じる人もいるのではないだろうか。

AIが人々に「信頼」されるには、何が必要か。AIを開発するマイクロソフトが、1つの答えを提示した。

AI(人工知能)が信頼されるために必要な「6つの倫理的要件」

2018年4月24日、マイクロソフトは、「人工知能(AI)の開発と活用にあたって重視すべき6つの倫理的要件」を発表した。

AIにはこれまでには不可能だった社会問題を解決するポテンシャルがある。しかし、そのポテンシャルを最大限に活かすためには、大量のデータ(ビッグデータ)を収集し、集約し、共有することが不可欠となる。

そこに、「ユニバーサルアクセス」(公平に誰もが利用でき)、「プライバシー」(個人情報が守られ)、「透明性」(背景情報が提供され説明責任が果たされる)といった、倫理上の問題が生じる。AIが社会での意思決定に利用される場面が増えるに連れ、こうした倫理の問題が顕在化するだろう。

マイクロソフトでは、AIによるソリューションの開発と展開における「6つの基準」を設定した。

  1. プライバシーとセキュリティ
    AIシステムは、「個人情報」のデータの収集・使用・保存行う。それは、プライバシー法による規制に準拠して行わなくてはならない。個人情報は、AIによる利用過程で、盗難・悪用されないように、保護されることが保証される必要がある。
  2. 透明性
    どのようにAIが判断したのかを、人々が理解できるようにしなければならない。そのためには、AIシステムの機能に関する「背景情報」を提供していく。潜在的な偏見、エラー、予期せぬ結果が生じた場合に、人々の困惑を防ぐ。
  3. 公平性
    AIシステムは、病気の治療や雇用についての判断を下す場合がある。その際には、同じ症状・同じ技能に対しては、誰に対してでも同じ判断が行われるべきだ。「バイアス(偏見)」がAIシステムに与える影響について、理解しなくてはならない。
  4. 信頼性
    AIシステムは、予期せぬ状況においても安全に応答しなければならない。また、想定と異なる形で進化していかないように設計される必要がある。そのため、AIシステムを「どのような条件下で動作させるか」「どの期間に展開するか」につての意思決定には、人間が重要な役割を果たさなければならない。
  5. 多様性
    AIソリューションは、「ユニバーサルアクセス」を確保し、誰もが利用できるようにしなければならない。環境の潜在的障壁を予期し、不用意に人々を排除することがない設計にするが必要だ。広範な人間のニーズと体験に対応することが求められる。
  6. 説明責任
    AIシステムを設計し、展開する人々はシステムの動作について「説明責任」を負う。それは、設計段階だけでなく運営中にも継続され無くてはならない。説明責任の基準としては、ヘルスケアにおけるプライバシーなど、他の分野での経験や実務に基づいたものとなる。

マイクロソフトでは、製品がこの6つの基準に準拠するかを制度的に確認するために、社内委員会を設置している。

時代と共に、AIと人間との関係も変化していくようだ。2018年に注目される、AIのトピックにはどんなものがあるだろうか。

AIに関する「5つのトレンド」2018

AIの利用はまだ始まったばかりと感じる人もいれば、すでに相当身の回りに入り込んでいると感じる人もいるだろう。2018年に注目される、AIのトレンドを挙げてみる。

  1. AIで自然言語が使えるようになる
    従来のコンピュータは、特殊なコマンドしか受け付けなかった。AIでは「自然言語」の利用に期待が集まる。顧客対応の業務で、「チャットボット」の利用が一般的になってきた。これからは、細かなニュアンスの理解が求められるようになるだろう。
  2. 人間の感情をAIが認識するようになる
    人間の怒りや喜びといった「感情」をAIが認識できるようになれば、チャットボットが高性能化する。顧客対応での人間との関係が、改善されることになるだろう。
  3. ビッグデータの分析が一般レベルで行われるようになる
    ビッグデータは、AIと並んで正確な理解が浸透しない用語だった。ビッグデータのビジネスへの応用には、専門的な分析から適切な結論を導き出す必要があった。AIと「機械学習」の発展で、ビッグデータの利用が身近になると期待されている。
  4. 倫理に関する議論が深まる
    AIが進化するに連れて、AIが重大な仕事を任されるシーンが増える。その際、AIの「信頼性」が問われることになる。もしAIが犯罪を起こした場合に、その責任は誰が取るのか。開発者なのか、利用者なのか。もしAI自身が責任を取るならば、どう責任を取るのか。AIに責任を問うならば、AIには権利も生じるのではないか。法的な整備を含んだ議論が、現実味を持ってくる。
  5. AIについての「大げさな言説」は終息する
    これまで、AIに対しては、大げさでヒステリックな言説で語られるシーンが多かった。「仕事が奪われる」「世界が征服される」、または逆に「仕事をしなくて良い」「世界の問題が全て解決される」といったものだ。人間がAIとのつきあいに慣れ、理解が深まると共に、現実的で、真の問題である「信頼性」について話題にする場面が広がるだろう。

人間が語るべきAIの「信頼性」と「倫理」

時代は、「どうすればAIが人々から信頼されるか」、を考える段階に入っているようだ。

サービスの利用には、「チャットボット」が現れる。ECサイトでは驚くような正確さで、「レコメンド」を行う。普段の移動や買い物からは、ビッグデータが収集される。経営判断にAIの意見を求めることもあるかもしれない。

AIの進化にともなう「個人情報」の利用に、不安を感じる人が増えるだろう。また、AIの判断によって、何らかの「損害」を被ることを想定しながら利用するシーンも出てくる。

AIの利用が現実化するにしたがって、人間は、AIの「信頼性」や「倫理」について、より深く語っていかなければならないようだ。

img: @Press​