エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【XAI・説明可能なAI】SHAPも多重共線性には勝てない?という話【実例あり】|へちやぼらけ(データサイエンスYouTuber)
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【XAI・説明可能なAI】SHAPも多重共線性には勝てない?という話【実例あり】|へちやぼらけ(データサイエンスYouTuber)
こんにちは。横浜在住のデータサイエンティスト、へちやぼらけです。 名著『機械学習を解釈する技術』を... こんにちは。横浜在住のデータサイエンティスト、へちやぼらけです。 名著『機械学習を解釈する技術』を読みました。近年、注目を浴びている「機械学習の説明可能性(XAI)」について解説をされている本です。 機械学習を解釈する技術、本日8/4から発売されます!PFI, PD, ICE, SHAPの4つの機械学習の解釈手法を、ライブラリを使わずPythonでゼロから手法を実装することを通じてアルゴリズムを理解し、データ分析を通じて勘所を掴んで頂けるよう工夫しました!https://t.co/3ofl7zopti — 森下光之助 (@dropout009) August 4, 2021 この本のタイトルにもなっている「機械学習を解釈する技術」とは、端的に説明すると『どの説明変数がどれくらい予測結果に寄与(影響)しているのか計算する手法』のことです。構築した機械学習モデルを実業務で利用し始めると、上司や