AI技術の進展により、採用プロセスにAIが使われるようになったが、AIの評価基準が不透明なケースもある。誤った評価や差別のリスク、法的な問題も生じており、企業はそのリスクをどう管理するかが求められている。
米国ではAI採用ツールに関する法的トラブルが増加。例えば、候補者を不当に排除したと訴えられた事例や、人種差別が問題になった事例がある。これに対応するため、米国内ではAI法の透明性やバイアス是正に重点を置いた州レベルの規制が進んでいる。
企業はAIガバナンスプラットフォームを利用してリスク管理を行ったり、ORCAAのような専門家による人的監査サービスを活用することが重要となる。結局、どんなツールを使おうとも、最終的なリスクの責任は使用する企業にある。AI時代に求められるのは、企業側が主体的に公平性と透明性を守る姿勢である。
出典 : 採用AIの「見えないリスク」をどう管理するか―米国で急拡大するAIガバナンスプラットフォーム「3つの類型」|HR Tech Roundup 海外のHRテクノロジー最新ニュース|世界・日本の労働事情コラム| https://www.works-i.com/research/labour/column/roundup/detail054.html
