ソニーは2021年春にも人工知能(AI)を使う全ての製品について倫理面での安全性を審査する。不適切と判断された製品は基準に合うよう改善したり開発を止めたりする。AIは利便性が高い半面、動作の判断基準が不透明で意図せぬ差別などの問題を引き起こす場合もある。AI製品の普及で開発者の責任が増しており企業も対策を強める。AIを巡っては差別や軍事利用の恐れが指摘されている。19年には米アップルが始めた新
はじめに ABEJAのアドベントカレンダーの第・・・何番目だろ・・・?? ABEJAでは、法務担当者をやっています。 弁護士を10年ほどやっていますが、ふとしたことで機械学習の世界をやってみたくなり、独学で、数学書やPRMLや青本やカステラ本やグッドフェロー先生の本を読んだりして、数学やら機械学習理論やらPythonの勉強をしたり、OJTで学んで、3年ほどRDチームを立ち上げて、機械学習モデルの開発・実装や技術調査に携わっていました。今は、法務関係の仕事がメインです。 今日のテーマはAIと公平性です。 色々テーマはあるのですが、ABEJAの中の人のご希望により公平性にしました。 当初は他のアドベントカレンダーの記事みたいに、コードをいっぱい書いて、「公平性確保のためのいろいろな論文を実装して効果を試してみた」「公平性に関する定義について理論面を解説してみた」系の記事にしようかと思っていたの
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く