ここ数年テクノロジー企業各社が、人工知能(AI)を使ったパーソナル・アシスタントを提供し始めた。代表的なものは、アップルの「Siri」、アマゾンの「Alexa」、マイクロソフトの「Cortana」、グーグルの「Google Home」である。それらはすべて音声で操作でき、アプリを呼び出して何かを調べたり、ちょっとした会話をしたりが可能だ。そしてそれらAIアシスタントに共通するもうひとつの特徴は、デフォルトではその声が女性である点だ。 女性と会話ができるとなると、人はなぜか性的な話題を持ちかけて反応を試したくなるものらしい。Quartzによれば、Cortanaのセリフのライターなどが、AIに対し投げかけられる言葉の中にかなりの割合で性的な表現が含まれることを報告している。 AIアシスタントはデベロッパーに、セクハラユーザーを通報するべきなのだろうか Quartzのリア・フェスラー(Leah
![AIへのセクハラ発言を開発者はどう定義すべきか?](https://cdn-ak-scissors.b.st-hatena.com/image/square/6d0f8989aa328877aedb3de83471425f6f206a13/height=288;version=1;width=512/https%3A%2F%2Fmedia.loom-app.com%2Ffuze%2Fdist%2Fimages%2F2017%2F03%2F170308_aisexualharass.jpg%3Fw%3D1280%26h%3D630)