AI(人工知能)を活用した採用支援ツールが急速に普及する一方で、それに伴う法的・倫理的な課題も浮き彫りになってきています。米国では、大手人事ソフトウェア企業「Workday」が、自社のアルゴリズムによって40歳以上の求職者を不当に排除したとして、集団訴訟を起こされる事態に発展しました。これはAIによる自動化がもたらす「効率性」の裏に潜む「差別の温床」といえるでしょう。
AI採用のリスクとしてよく知られているのが、2018年にAmazonが開発した自動選考ツールが男性応募者を優遇していた問題です。AIは過去の成功者のプロファイルを基に判断するため、たとえ明示的な差別意図がなくても、結果的に性別や年齢・障害・出身人種などに偏った選考が行われてしまう懸念があるのです。
データサイエンティストや倫理学者の間では、AIは過去の差別的な構造を再現してしまう可能性が高く、適切な監視と修正がなければ既存の格差を拡大させてしまうという警鐘が鳴らされています。特に「アルゴリズムによる意思決定」は、企業にとって効率化と透明性の象徴である一方で、「なぜ不採用になったのか」の理由がブラックボックス化するという問題もあるでしょう。
実際、他のAI選考ツールでは、履歴書に「ソフトボール」と書かれていた場合より「ベースボール」と書かれていた方が高評価を得た事例も報告されているようです。統計的に「成功者が持っている特徴」を機械的に抽出する過程で無関係な要素まで重視してしまうリスクが浮き彫りになっています。
今回のWorkdayを巡る訴訟は、AIが採用分野においてどのように人々のキャリアに影響を与えるか、そして企業がその責任をどのように果たすべきか、という問いを投げかけています。判決が確定するには時間がかかる見通しですが、既にこの件は多くの企業に「AI活用の透明性と公平性」について再考させるきっかけとなるでしょう。
記事元:https://edition.cnn.com/2025/05/22/tech/workday-ai-hiring-discrimination-lawsuit
|