AI採用差別を防ぐために企業人事が留意すべきこと

米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきたAI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、運用を取りやめる結果になった。

AIを人事領域に用いるHRテクノロジーは採用・配置・健康領域など、様々な場面で活用されています。

日本においてもエントリーシートをAIを用いて分析する企業や人の主観により評価が変わりうる面接について、テクノロジーの力を借りて均一化・効率化しようという動きが活発です。

そんな中、テクノロジーの本場アメリカ・アマゾン本社にて上記のニュースが飛び込んできました。

ロイターの記事によれば、テクノロジー職種について、優秀な人材を厳選するために、上位5%に入る人材を求めるべく、これまでに提出された履歴書のパターン学習をさせたそうです。

しかし、テクノロジー職は、事実上男性が殆どであることから、機械学習の結果、男性バイアスがかかり、女性については減点するシステムになってしまっていたそうです。

これはアマゾンの個別の事例という問題ではありません。要はAIがどのように学習していくかは「どんなプログラムを読ませるか」、「その結果をどう修正していくか」という点にかかっています(マイクロソフトのAIがヘイトを学習してしまったという例もあります)。

そのため、現状においては、採用においてAIの判断を仰ぐにしても、男女差別、子を持つ人に対する差別、地域・人種による差別、LGBTなどマイノリティー差別が起こりえ得ます。

これを回避するためには、AIの判断は別として、「最後は人」が判断するという姿勢です。そうであるからこそ、本件の事例でも、女性について減点する仕組みに気がつけたのだと言えるでしょう。

正に、この点は拙著「HRテクノロジーで人事が変わる」(労務行政 2018)で指摘していたことですが、これが現実のものとなりました。

今後、テクノロジーの普及促進は行うべきことは言うまでもありませんが、そのとき、現場の人事としては、AIの「調律」をするという重要な役割が求められていると言えるでしょう。

https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN

この記事が気に入ったらサポートをしてみませんか?