【読売新聞】 画像生成AI(人工知能)で、実在の児童に酷似した画像を生成できる追加学習用データが、ネット上で売買されていることがわかった。過去に日本で活動した児童タレントの追加データもあり、追加データで作ったとみられる児童タレントに
インターネット上には児童ポルノなどの未成年者をターゲットにした性的素材(child sexual abuse material :CSAM)が多く存在しています。CSAMをネット上から排除する作業は人間の手で行われていますが、次々と登場するCSAMに対処できないのが現状です。そこで、GoogleはCSAMに向き合う人間を助けるべく、AIを活用したCSAMを判定するツール「Content Safety API」を開発しています。 Using AI to help organizations detect and report child sexual abuse material online https://www.blog.google/around-the-globe/google-europe/using-ai-help-organizations-detect-and-report
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く