米オープンAIは2023年4月5日、「ChatGPT」でのプライバシー侵害の被害を最小限に抑えるため、可能な場合はAIを訓練するデータから個人情報を削除し、外部からの削除の要請にも応じるなどの施策を公表した。また外部の専門家や利用者の声を反映して改善し、動作を監視する仕組みをつくるとしている。
AI開発の競争が激しくなっている中で、技術開発者はプライバシー侵害を防ぐと共に、不正使用を防ぐ手立てを取ることが必要となっている。欧州では個人情報保護法制の強化が進む可能性があり、米国でも非営利団体などがサービス差し止めを求める動きがあるなど、急速なAI開発に伴い、プライバシーの尊重に関する取り組みが求められている。
オープンAIが発表した「AIセーフティへの取り組み」の概要は以下のとおり。
・安全性を高めたAIシステムの構築
新しいシステムを公開する前に厳密なテストを行い、外部の専門家にフィードバックを求め、人間のフィードバックによる強化学習などの手法でモデルの動作を改善し、幅広い安全性と監視システムを構築
・実際の使用から学んでセーフガードを改善する
安全対策を施した新しいAIシステムを、慎重かつ徐々に着実に多くの人々に公開し、学んだことに基づいて継続的に改良
・子どもたちを守る
AIツールの利用を18歳以上、または保護者の承認を得た13歳以上に義務付け、認証オプションも検討
・プライバシーを尊重する
可能な限りトレーニングデータセットから個人情報を削除し、個人の個人情報に対する要求を拒否するようにモデルを微調整し、個人からの個人情報削除の要求に対応
・事実関係の正確性の向上
ChatGPTがつく嘘のことを幻覚(Hallucination)と呼ぶが、幻覚の可能性をさらに減らし、AIツールの現在の限界について一般の人々を教育するためにやるべきことがたくさんあることを認識。性能を向上させ、GPT-4はGPT-3.5よりも事実に基づくコンテンツを生成する可能性が40%向上
・継続的な研究と関与
より高性能なモデルの作成と展開にますます慎重になり、AIシステムが進化するにつれて安全対策を強化するとともに、利害関係者間のコラボレーションとオープンな対話を強化