AmazonのAIを使用した人材採用システムに、女性差別的な判断をする欠陥が見つかり話題になりました。Amazonは2014年からこの採用システムを開発していましたが、2017年にプロジェクトを中止しています。 AIを活用した採用システムの開発目的は、もちろん女性差別をすることではなかったはず。なぜ、AIは偏った判断をするようになってしまったのでしょうか? 採用効率化のはずが女性差別にAmazonは、人材採用業務を効率化させるため、過去10年間分の履歴書パターンを学習させ、AI採用システムを開発していました。応募者をランク付けし、5点満点の応募者を明示して、採用をおこなうことがシステム開発の狙いだったといいます。 しかし「女性チェス部の部長」や女子大卒といった、「女性」に関する単語が履歴書に記されていると、応募者の評価が下がることが明らかとなりました。過去の技術職の応募がほとんど男性だった