サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
2024年ランキング
yul.hatenablog.com
1. KL-divergenceとは? 1.1 定義 1.2 基本的な性質 1.3 KL-divergenceは距離なのか? 2. 諸量との関係 2.1 KL-divergenceと相互情報量 2.2 KL-divergenceと対数尤度比 2.3 KL-divergenceとFisher情報量 3. 参考書籍 !! お知らせ(2020.06.10) * こちらの記事の英語版を公開しました.よければご覧ください. Here is the english translation of this post. Please check it if you want. 1. KL-divergenceとは? 統計学や情報理論をはじめとした広い分野で、KL-divergence*1はたびたび登場します。KL-divergenceは、「尤度比(尤もらしさを比較する尺度)を log 変換し(乗算操作を線
- 最終更新:2019/11/07 クリーンブートしたUbuntu16.04LTS マシンに,NVIDIA GPUを導入し,CuDA・cuDNNをセットアップしました. おもにtensorflow-gpuを使うためです.導入過程で色々とつまづいたので,得た知識をこのポストにまとめておきます. 実行環境 1. OS 2. HDD 2.1. HDDデバイスの確認 3. メモリ 3.1. メモリデバイスの確認 3.2. 仮想メモリの状態確認 4. CPU 4.1. CPUデバイスの確認 5. GPU 5.1. GPUデバイスの確認 5.2. NVIDIA ドライバ 5.3. CUDA 10.0をマシンにインストール 5.4. cuDNN 7.4.2をマシンにインストール 5.5. cuDNNの動作確認 5.6. cuDNNの確認 5.7. cuDNNの保存場所 5.9. CUDA(/usr/lo
このページを最初にブックマークしてみませんか?
『yul.hatenablog.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く