エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
PythonでKullback-LeiblerダイバージェンスとJensen-Shannonダイバージェンス - 鴨川にあこがれる日々
記事へのコメント1件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
PythonでKullback-LeiblerダイバージェンスとJensen-Shannonダイバージェンス - 鴨川にあこがれる日々
11月5日追記 最下部に追記しました. 前置き 2つの確率分布の違いを表す指標にKullback-Leiblerダイバー... 11月5日追記 最下部に追記しました. 前置き 2つの確率分布の違いを表す指標にKullback-Leiblerダイバージェンス(以下KLダイバージェンス)とJensen-Shannonダイバージェンス(以下JSダイバージェンス)があります. 詳しいことは 言語処理のための機械学習入門 (自然言語処理シリーズ) 作者: 高村大也,奥村学出版社/メーカー: コロナ社発売日: 2010/07/01メディア: 単行本購入: 13人 クリック: 235回この商品を含むブログ (42件) を見るの1.6を参考にしてください. 本にもありますが,これらの指標が"距離"といわれることがありますが,厳密な距離の定義を満たしていないので気をつけましょう*1. PythonからJSダイバージェンスを使う必要があり 「どうせ,scipyかnumpyかscikit-learnにあるっしょwwww」 とかいってたら