タグ

2016年11月16日のブックマーク (6件)

  • 見たら瞬時に理解すべき数式 - HELLO CYBERNETICS

    機械学習で現れる数式に関して、これを見たら瞬時に理解すべきものを載せておきます。 機械学習で現れる数式には大量の添字があり、それらのせいで一体どのような計算が行われているのかを瞬時に把握するのが難しくなっています。しかしもはやこれは慣れの問題です。 教科書を根気強く理解できるようにするのもいいですが、予めどのような表現があるのかを知っていれば、もっと楽に読み進めることができるはずです。そのための言わば事前に知っておくと言い数式たちを載せておきます。 行列の行と列の数 計算の法則 特に頻出する形式 和の計算と行列表現 内積 行列計算 出現場面 固有値と固有ベクトル 固有ベクトルは、ほとんど変換を受けないベクトル 固有値とは、固有ベクトルがどれだけ定数倍されたかを表す 出現場面 勾配 勾配はスカラー関数の各成分の傾き 勾配はスカラー関数の等高線の法線ベクトル 出現場面 終わりに 行列の行と列の

    見たら瞬時に理解すべき数式 - HELLO CYBERNETICS
  • 【Python】データサイエンティストのためのPython開発記事紹介 - 歩いたら休め

    後輩が数値計算を使う、簡単なバッチ処理をPythonで書き始めました。 一応私もPythonの知識ならそれなりにあるのでいろいろ教えられることは(まだ)あります。 そのための予行練習としていろいろまとめておきます。 正直、自分よりもっと数値計算やプログラミングに関する知識と経験豊富なエンジニアがいれば、 彼ももっといろいろなことができるようになっているんじゃないかと思ってしまい、申し訳なさを感じています。 Pythonの言語のイディオムを覚えよう まずは、道具であるプログラミング言語を使いこなせるようになりましょう。 おすすめは『Pythonチュートリアル第3版』です。 Pythonチュートリアル 第3版 作者: Guido van Rossum,鴨澤眞夫出版社/メーカー: オライリージャパン発売日: 2016/03/24メディア: 単行(ソフトカバー)この商品を含むブログを見る WEB

    【Python】データサイエンティストのためのPython開発記事紹介 - 歩いたら休め
  • Python使いをJuliaに引き込むサンプル集 | mwSoft

    前書き Juliaという言語をご存知ですか? Pythonと同じ動的型付け言語ですが、実行時にコンパイルされることでC並の速度で動くこともあるとかないとか言われている話題のプログラミング言語です。比較される言語としてよくRやPythonが挙げられることからもわかる通り、統計や機械学習などの分野で力を発揮します。 2012年生まれとまだ若く、RやPythonが持つ多様なライブラリの力には及ばないところはありますが、CやPythonのコードを手軽に呼べる機能が用意されていたり、iPython NotebookやPyLabを呼ぶ為のインターフェースが用意されていたりと、既存の資産へのアクセス方法を用意することでその弱点をカバーしようとしています。 記事では、Juliaのサンプルコードを紹介しながら、PythonユーザがJuliaに移った際に得られるメリットを紹介していきます。 Pythonの実

  • 【 考察メモ 】深層学習モデル設計者 が、人間 脳の神経回路(コネクトーム)形成・変容メカニズム から 学ぶべきこと、学ぶべきでないこと - Qiita

    【 考察メモ 】深層学習モデル設計者 が、人間 脳の神経回路(コネクトーム)形成・変容メカニズム から 学ぶべきこと、学ぶべきでないことポエム人工知能DeepLearning深層学習MachineLearning ( 関連記事 ) HirofumiYashima Qiita記事(最終更新日: 2016/12/15)「(Deep) Neural Network モデル の 進化モデル は、 さらに人間の脳に近いモデルを志向すべきか、それとも、コンピュータ(チューリング・マシン)に範を取る方向 に 転換すべきか」 人間レベルの「知性」を発揮する深層学習モデルを実現させるためには、人間脳の神経回路(コネクトーム)メカニズム のどこに、どこまで範を取れば良いのだろうか。 いま、一般に知られている深層学習モデルは、多層ネットワークの結合重み を BP法(誤差伝播法)で学習させることはできる。 しかし

    【 考察メモ 】深層学習モデル設計者 が、人間 脳の神経回路(コネクトーム)形成・変容メカニズム から 学ぶべきこと、学ぶべきでないこと - Qiita
  • 機械学習論文読みメモ_15 - Qiita

    Asynchronous Methods for Deep Reinforcement Learning asynchronous gradient descentを用いたreinforcement learningの学習手法を提案する。 experience replayは過去の観測を定期的に再利用して学習する事で時間依存性を回避し学習性能を向上可能で、よく使われてきた。 論では代わりにマルチエージェントをマルチCPU上でそれぞれ走らせ、異なった環境の観測を同時に与える事で時間依存性を回避した学習を可能にする。 これによりさらなる性能向上が可能で、かつGPUに頼らずCPUのみで計算時間を減らす事が可能である。 Learning and Inference via Maximum Inner Product Search, ICML2016 log-linear modelの学習を行う際

    機械学習論文読みメモ_15 - Qiita
  • 深層強化学習でシステムトレードをやる時に役に立ちそうな資料まとめ - ニートの言葉

    Photo via Visual Hunt 少し前のことですが、AlphaGoという囲碁の人工知能プログラムがイ・セドル九段に勝利したことで話題になりました。*1 また、一部のゲームにおいて「DQN(Deep Q-network)」が人間よりも上手くプレイするようになったというニュースも話題になっていましたね。*2 今回はこれらの事例で使われている「深層強化学習」という仕組みを使って、FXのシステムトレードができないかと思い、調べてみました。 注意:強化学習もFXも勉強し始めたばかりなので、色々間違っている箇所があるかもしれません。ご指摘いただけると幸いです。 今回の内容 1.強化学習について 1-1.強化学習 1-2.Reinforcement Learning: An Introduction (2nd Edition) 1-3.UCL Course on RL 1-4.強化学習につい

    深層強化学習でシステムトレードをやる時に役に立ちそうな資料まとめ - ニートの言葉