人事・採用の現場で増えるAIツール利用

人材採用プロセスでAIツールを活用する企業は、世界的に増えているようだ。

米人材管理協会(SHRM)の調べによると、米国では企業の40%が候補者のスクリーニング/評価でAIを利用、また41%がAIチャットボットを利用、44%がソーシャルメディアで候補者を検索する際にAIを利用をしていることが判明した。

また英ガーディアンは2023年3月26日の記事で、オーストラリアでは企業の3分の1が採用プロセスでAIを利用していると伝えている。

この割合は、今後さらに増加する公算が大きい。

ガートナーが2023年3月27日に発表した企業の人事部門における投資動向調査で、「人事テクノロジー」が最も優先度の高い投資領域であることが判明したのだ。同調査は、ガートナーが2022年10月に、企業の人事部門責任者を対象にどの分野に予算を投じるのかを調べたものである。

調査の結果、人事テクノロジーへの投資が46%で最大となった。人事テクノロジーにはさまざまなツールがあるが、AI関連ツールも多く含まれると想定される。実際、人事部門ではどのようなAIツールが利用されているのか。

上記ガーディアンの記事によると、オーストラリアでは、メルボルンのスタートアップSapia.aiが開発する人事AIツールが広く利用されているという。

Sapia.aiのクライアントには、カンタス航空に加え、Medibank、Suncorp、Woolworthsなどオーストラリアの大手企業が多数含まれている。同社の人事AIツールは、これらの大手企業が採用に導入しているイニシャル・ストラクチャー・インタビュー・プロセスという面接手法に似たプロセスが取り入れられている。

このプロセスでは、企業がフォローアップできる候補者の選考リストを作成。その際に、候補者の「謙虚さ」「外向性」「誠実さ」などの性格特性に関する評価が実施される。Sapia.aiのAIツールは、候補者へのいくつかの質問を投げかけ、その応答結果から、性格特性を分析し、スコアを人事部門に送信する仕組みとなっている。

ニューヨーク市の雇用AI規制

多くの企業が人事・採用にAIツールを活用し始めているが、候補者側はその事実を知らないことがほとんどだ。しかし、この状況は今後大きく変わる可能性がある。

ニューヨーク市では、同市に拠点を置く企業に対し、雇用関連の意思決定におけるAIツール利用を規制する法律が施行され、これに続く動きが米国他州でも広がりつつあるからだ。

このニューヨーク市で施行された法律は、「Automated Employment Decision Tool(AEDT)法」と呼ばれ、雇用におけるAI利用を規制する米国初の法律といわれている。

AEDT法は、ニューヨークを拠点とする企業が採用においてAIツールを利用する際、そのAIツールに対して独立したバイアス審査を実施することを義務付け、その審査を行わずAIツールを利用し、候補者や従業員を評価することを違法と規定している。また、AIツールを利用することを候補者に伝えることも義務付けている。

法的には、2023年1月1日に効力を持つ状況となったが、バイアス審査の実施方法に関する詳細情報が不足していたため、実質的な運用には至っておらず、本格的な運用が始まったのは2023年7月以降となる。

同法では、バイアス審査とは、独立した監査人よる「公平な評価」であり、評価項目には少なくとも、性別カテゴリ、人種/民族カテゴリなどの選択計算方法やスコアリング方法の評価が含まれなければならないと定められており、この審査は毎年実施することが義務付けられている。コンプライアンス義務を負うのは、雇用する企業であり、AIツールを開発するベンダーではない。

ニューヨーク市のこの動きに呼応して、カリフォルニアやニュージャージー、バーモント、ワシントンD.C.、マサチューセッツなどの他州でも似たような取り組みが推進されている。今後、州ごとに異なる雇用AIツール規制が登場すると、企業にとっては負担が増大する可能性があり、連邦政府による統一的な法規制の導入に期待が寄せられている。

たとえば、カリフォルニア州で提案されている雇用AI規制法案は、ニューヨーク市の法律と比べ、審査規定や候補者の選択肢などの点で若干異なっている。

カリフォルニア州議会で提出された雇用AI規制法案「AB 331」では、雇用AIツールの審査は、独立した監査人ではなく、そのツールを開発したデベロッパーが実施すべきと規定。また、企業が候補者に対しAIツールの利用を通知することを義務付けるだけでなく、候補者にAIツールの利用を拒否する権利を与えている。

米連邦政府も2022年10月に、雇用における自動化システムの適切な運用についてのルールをまとめた「Blueprint for an AI Bill of Rights, Making Automated Systems Work for the American People」という報告書を発表するなど取り組みを実施している。しかし同報告書は、ホワイトペーパーであり、法的拘束力はない。

欧州におけるAIと雇用をめぐる議論

雇用におけるAIツール利用は、米国だけでなく、欧州でも重要な議題となっている。

EU・米国貿易技術協議会(TTC)が実施した調査では、2021年時点で、250人以上の従業員を擁する欧州企業のうち、28%がAIを導入していることが明らかになった。2023年、この割合はさらに増え、特に採用でのAIツールを利用する企業数も増加していることが想定される。

この状況は、ジェネレーティブAIの登場を契機としてEUが議論し始めている新たなAI規制法案の今後の議論次第で大きく変わる可能性がある。

欧州議会では、AI規制に向け新たな法律「AI Act」が提案され、今後いくつかの議論と段階を経て施行される見込みとなっている。

このAI法案は、リスクの度合いに応じてAIを規制するリスクベースのアプローチを採用。現在までの議論では、リスクは「受け入れられないリスク」「高リスク」「限定的かつ最小のリスク」の3段階に分類されている。

リスクレベルが最高となるのが「受け入れられないリスク」。たとえば、子どもに危険な行動を促す音声認識型のおもちゃ、行動・社会経済的地位・個人的特性に基づいて人々を分類するソーシャルスコアリング、顔認識などリアルタイムおよび遠隔生体認識システムが含まれ、これらは完全に禁止される。

これに次ぐ「高リスク」に分類されるAIツールは、完全禁止とはならないものの、市場に出される前に厳しい審査・評価が求められる。

高リスクに分類される分野の1つとして、雇用・労働者管理が含まれており、同法案がこのまま施行されると、採用におけるAIツールの利用は大きなコストを伴うものになると見られているのだ。

現行の案に対し、欧州企業の職場でのイノベーションを阻害する可能性があるとの声もあがっており、今後雇用におけるAIツールの利用に関して、議論がどう展開するかに注目が集まっている。

文:細谷元(Livit