1.Fairness Indicator:公正な機械学習を構築するためのツール(1/3)まとめ ・機械学習は不公平な偏見(バイアス)を反映または強化してしまう危険性がある ・GoogleがAI開発時の原則としてかかげるAI principlesではバイアスを避ける事を第二原則としている ・この度、公平性を検証するツールであるフェアネスインジケーターのベータ版をリリースした 2.機械学習の公平性とは? 以下、ai.googleblog.comより「Fairness Indicators: Scalable Infrastructure for Fair ML Systems」の意訳です。元記事の投稿は2019年12月11日、Catherina XuさんとTulsee Doshiさんによる投稿です。 産業界と学術界は、機械学習(ML)を使用してより良い製品を作成したり、重要な問題に取り組む事を