「機械学習と公平性に関するシンポジウム」に参加してきた。大ホールが半分以上(?)埋まるほどの盛況ぶりで、平日夜の開催だったとはいえ、ここまで関心が高いとは意外だった。メディア関係者も多く来ていたようなので、しっかりとしたレポートはそのうち読めると思う。ここでは、あくまで個人的な印象を、備忘録として残しておく。 企画趣旨、機械学習の公平性とは このシンポジウムは、AI系の三つの研究団体が共同で主催したもの。「機械学習と公平性」について、研究者側からの情報発信と、議論の呼びかけを意図している。直接のきっかけとなったのは、昨年11月ごろ、東京大学に籍を置くAI研究者が自身の差別的発言を「AIの判断」であるかのごとく弁明した事案だという(シンポジウムの冒頭でそのように説明された)。 ここで問題にされている「公平性」とは、厳密ではないかもしれないが、私はひとまず 機械学習を使うことが何らかの差別を生
by halfpoint Pixel 4の顔認証機能を改良するため、Googleの下請け企業がお金に困窮するホームレスや学生を対象に、ギフトカードと引き替えに顔の3Dスキャンデータを収集するという戦略を取っていたことがわかりました。3Dスキャンはまるで「ゲーム」や「調査」かのように説明されており、主に肌の色が暗い人を対象としたものだったことが明らかにされています。 Google using dubious tactics to target people with ‘darker skin’ in facial recognition project: sources - New York Daily News https://www.nydailynews.com/news/national/ny-google-darker-skin-tones-facial-recognition-p
Tech/GoogleGoogle contractors reportedly targeted homeless people for Pixel 4 facial recognition Google contractors reportedly targeted homeless people for Pixel 4 facial recognition / They need facial scans of people with darker skin By Sean Hollister, a senior editor and founding member of The Verge who covers gadgets, games, and toys. He spent 15 years editing the likes of CNET, Gizmodo, and En
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く