アマゾンの「アレクサ」やアップルの「Siri」といった女性の声のAIアシスタントが性差別の偏見を助長するとの報告書が発表された/Amazon (CNN Business) 国連教育科学文化機関(ユネスコ)がこのほど発表した報告書で、アップルの「Siri」やアマゾンの「アレクサ」など初期設定で女性の声が使われているAIパーソナルアシスタントについて、性別に関する固定観念を定着させ、性差別的な発言や乱暴な発言を助長すると指摘した。 報告書では、そうした女性の声のパーソナルアシスタントについて、「女性は愛想が良く従順で、いつも人を助けて喜ばせたいと思っており、ボタン1つ、あるいは音声で命令するだけで利用できる」という概念を固定させると警鐘を鳴らした。 ユーザーが性虐待的な言葉を浴びせた場合でも、AIアシスタントからは受動的で丁寧な反応が返ってくるとも指摘。「女性は従順で、不当な扱いも我慢するとい