アマゾンの「アレクサ」やアップルの「Siri」といった女性の声のAIアシスタントが性差別の偏見を助長するとの報告書が発表された/Amazon (CNN Business) 国連教育科学文化機関(ユネスコ)がこのほど発表した報告書で、アップルの「Siri」やアマゾンの「アレクサ」など初期設定で女性の声が使われているAIパーソナルアシスタントについて、性別に関する固定観念を定着させ、性差別的な発言や乱暴な発言を助長すると指摘した。 報告書では、そうした女性の声のパーソナルアシスタントについて、「女性は愛想が良く従順で、いつも人を助けて喜ばせたいと思っており、ボタン1つ、あるいは音声で命令するだけで利用できる」という概念を固定させると警鐘を鳴らした。 ユーザーが性虐待的な言葉を浴びせた場合でも、AIアシスタントからは受動的で丁寧な反応が返ってくるとも指摘。「女性は従順で、不当な扱いも我慢するとい
![女性の声のAIアシスタント、性差別的偏見を助長 ユネスコ報告書](https://cdn-ak-scissors.b.st-hatena.com/image/square/fb439eedaedcd0f4abaaee83ef939068c1ebbce2/height=288;version=1;width=512/https%3A%2F%2Fwww.cnn.co.jp%2Fstorage%2F2019%2F05%2F23%2F7bda30545f14730d1a5f595e6b1a6fa9%2Falexa-super-169.jpg)