Home » リソース » 私のブックマーク » 【記事更新】私のブックマーク「機械学習における解釈性(Interpretability in Machine Learning)」 機械学習における解釈性 (Interpretability in Machine Learning)原 聡(大阪大学産業科学研究所) はじめに近年の人工知能技術、特に機械学習の発展に伴い、これらの技術への社会的な期待が高まっている。 しかし、このような期待の高まりと同時にこれら技術への不安も高まっている。 特に、深層学習モデルを初めとする機械学習モデルが複雑なブラックボックスであるがゆえに安易に信頼できないとする懸念の声が上がり初めている。 これに対し、総務省はAIの利用の一層の増進とそれに伴うリスクの抑制のために「AI開発ガイドライン案」[1]を2017年に策定した。 このガイドライン案では、上記のような懸念
説明可能AI(Explainable AI)原 聡(大阪大学産業科学研究所) はじめに2018年に本誌5 月号(Vol. 33, No. 3, pp. 366-369)の”私のブックマーク”に「機械学習における解釈性」という記事を書いた。前記事の執筆から1年が経ち、機械学習モデルの解釈・説明技術を取り巻く社会的な情勢の変化や新たな研究の発展など、数多くの進展があった。本記事はこれら近年の変化・進展についてまとめた、上記の”私のブックマーク”の続編である。本記事を読む前に、まずは上記の前記事をご一読いただきたい。 用語について本記事では、機械学習モデルの出力に加えて、その出力を補助する追加の情報(モデルの解釈、判断根拠の説明、など)を出力する技術一般および研究分野全体を指す用語としてXAI(Explainable AI, 説明可能AI)を用いる。XAIはアメリカの国防高等研究計画局(DARP
ZOZO研究所の清水です。弊社の社会人ドクター制度を活用しながら、「社内外に蓄積されているデータからビジネスへの活用が可能な知見を獲得するための技術」の研究開発に取り組んでいます。 弊社の社会人ドクター制度に関しては、以下の記事をご覧ください。 technote.zozo.com 私が現在取り組んでいるテーマの1つに、「機械学習が導き出した意思決定の理由の可視化」があります。この分野は「Explainable Artificial Intelligence(XAI)」と呼ばれ、近年注目を集めています。 図.XAIに関連する文献数の推移(引用:https://arxiv.org/abs/1910.10045) その中でも今回はユーザに対するアイテムの推薦問題に焦点を当て、「なぜこのユーザに対して、このアイテムが推薦されたのか?」という推薦理由の可視化が可能なモデルを紹介します。 本記事の概要
研究開発チームインターンの北田 (shunk031) です。アメリカのアラスカにて行われたKDD2019に参加・発表してきました。 www.kdd.org KDD2019 のチュートリアルやワークショップ、キーノートの中でFairness (公平性) および Explainability (説明性) にフォーカスした以下のものを聴講したので概要をまとめたいと思います。 チュートリアル Fairness-Aware Machine Learning: Practical Challenges and Lessons Learned Explainable AI in Industry ワークショップ Explainable AI/ML (XAI) for Accountability, Fairness, and Transparency キーノート Do Simpler Models Ex
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く