サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
GPT-4o
setten-qb.hatenablog.com
今回は機械学習でよく出てくる正則化の数理的基礎についてまとめたいと思います. ちょっと数理的なお話が多くなりますが, 大学院に居たときも今の職場で話しているときにも,この辺の事を理解している人は意外と多くないのかなと思ったので, 記事にしてみました. なお,本記事の内容の大部分は 金森敬文. (2015). 統計的学習理論 (機械学習プロフェッショナルシリーズ). を参考に書いています. 一般的な学習理論のお話 回帰にしろ分類にしろ,機械学習の理論はある程度統一的に扱うことが出来ます. 目的変数$y$が離散変数であれば分類問題になりますし,連続変数であれば回帰になります. ここでは,回帰・分類を統一的に扱い,学習理論一般に関する説明を少しだけしたいと思います. 入力ベクトルを$\boldsymbol{X}\in \mathcal{X} \subset \mathbb{R}^d$, 目的変数
どうも,接点QB です. KDD 2017の論文を漁っていたら,「Interpretable Predictions」というタイトルに目を惹かれて表題の論文を読んだので紹介したいと思います. 機械学習(教師あり)の手法は「予測・分類」を目的としていて,「説明性」に関してはあまり重視されない印象があります. しかし,実際の問題を解決しようとする際には説明性を求められるケースが多いと思います. たとえば,「この人は商品Aを購入しないグループに属する事はわかりました.じゃあ,どうすればこの人に商品Aを買わせることができますか?」といったケースがあります. 今回紹介する論文で提案されている手法は,上記のような例でも対応することが出来ます. 論文の概要 問題設定と前提条件は, 2値分類 使用するのは決定木ベースのアンサンブル分類器 です.そして,論文の目的は negativeに分類された$\rene
このページを最初にブックマークしてみませんか?
『横須賀の某Prisonで働く研究者?のブログ』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く