女性の写真を裸にするアプリ「DeepNude」の公式ツイッターアカウントとロゴ(2019年6月28日撮影)。(c)AFP 【6月29日 AFP】人工知能(AI)を利用して女性の写真を裸にできるアプリが、悪用の恐れがあるとしてソーシャルメディア上で多くの批判を浴び、削除された。 【関連記事】なぜ女性の乳首画像は規制対象? FB社屋前でヌード撮影で抗議 米 このアプリ「DeepNude」は、エストニアに拠点を置くという開発者が公開。開発者は、「娯楽」目的で数か月前に立ち上げたが、その需要を「大幅に過小評価」していたと述べた。 開発者はアプリについて「拡散し、アクセスを制御できなくなるとは考えもしなかった」とツイッター(Twitter)に投稿。「安全措置(ウォーターマーク、透かし)を採用していたが、もし50万人が使用すれば、悪用される可能性は極めて高い。私たちはこうした方法で収入を得たくはない」