タグ

Pythonとnumpyに関するNyohoのブックマーク (4)

  • 実践 機械学習システム

    書は、実際に手を動かしながらシステムを作成し、そのエッセンスを身につけることを目的とした機械学習システムの実践的な解説書です。「データといかに向き合うか」という視点から、生のデータからパターンを見つける方法を解説します。Python機械学習の基、ライブラリの使い方をはじめ、具体的な例に基づいたデータセット、モデル化、レコメンドと、その改良、音声や画像の処理など、より重要な問題についても解説します。さらに、テキストや画像、音声に対して機械学習の手法を適用する方法を学び、機械学習関連技術の評価方法や、最適な選択を行うための比較方法について学びます。書で学んだツールと知識があれば、実際の問題を解決できる独自のシステムを作成できるようになるでしょう。 謝辞 原書の監修者について はじめに 1章  Pythonではじめる機械学習 1.1 機械学習Pythonはドリームチーム 1.2 

    実践 機械学習システム
  • Effective Numerical Computation in NumPy and SciPy

    Sep 13, 20149 likes8,848 viewsAI-enhanced description This document provides an overview of effective numerical computation in NumPy and SciPy. It discusses how Python can be used for numerical computation tasks like differential equations, simulations, and machine learning. While Python is initially slower than languages like C, libraries like NumPy and SciPy allow Python code to achieve sufficie

    Effective Numerical Computation in NumPy and SciPy
    Nyoho
    Nyoho 2014/09/16
    「NumPyを使って高速に計算するコツと、SciPyの中の特に疎行列の扱いについて」スライド
  • PyCon JP 2014で発表してきた – はむかず!

    先日PyCon JP(Python開発者のお祭り)で、登壇発表してきました。 そのときの資料がこちら 内容としては、NumPyを使って高速に計算するコツと、SciPyの中の特に疎行列の扱いについてです。 そしてビデオがこちら。 https://www.youtube.com/watch?v=VJwjzY6jdBY#t=293 Togetterでの反応 http://togetter.com/li/719865?page=23 を見ると、やはり難しかったという人もいるようですが、こういう内容の発表だとやはり全員にその場で理解してもらうというのは難しいと思うので、今後ブログ等で補完的な内容を発信していこうかと思ってます。

    Nyoho
    Nyoho 2014/09/16
    「NumPyを使って高速に計算するコツと、SciPyの中の特に疎行列の扱いについて」ほうほう!
  • numpyでのKLダイバージェンスとJensen-Shannonダイバージェンスの実装 | Vingow 開発チームブログ

    scipyには距離を測るための手続きが用意されています(scipy.spatial.distance)。ユークリッド距離やcosine距離(cosine類似度)などもあるのですが、確率分布間の距離とも言うべきKLダイバージェンスやJensen-Shannonダイバージェンスなどは実装されていません。ということで、実装してみました。 実装コードだけ見たいという場合は、最後まで読み飛ばしてください。 KLダイバージェンスとJensen-Shannonダイバージェンスについて KLダイバージェンス(カルバック・ライブラー情報量; Kullback–Leibler divergence; 相対エントロピー)とは、分布と分布の差異の大きさ(≠距離)を測るものです。分布と分布があったとき、のに対するKLダイバージェンスは で定義されます。また、クロスエントロピーを使って と定義することもできます。クロ

    numpyでのKLダイバージェンスとJensen-Shannonダイバージェンスの実装 | Vingow 開発チームブログ
  • 1