タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

qiitaとdata-visualizationとchainerに関するnabinnoのブックマーク (3)

  • chainerで最適化数学 - Qiita

    この記事はTSG Advent Calendar 2017/IS18er Advent Calendarの12日目の記事として書かれました。 (ちょっとタイトルが大げさすぎる?) はじめに こんなものをchainerで作りました。(アニメーションはmatplotlib) 以下で出てくるコードをまとめたものはここにあります。 ソースファイル 経緯 この間ネットサーフィンをしていたらこんなものを見つけました。 最適化数学で新年の挨拶(ニコニコ動画) 見てみると定点の周りを別の点が回り、さらにその点の周りを別の点が回り…を繰り返し、それらの点を結んでいろいろな図形を作っているようです。この動画では数字の2, 0, 9を描いていました。 これを僕も作りたい!と思ったので、この方のブログへ行き解説を読んでみました。(http://kogarashi.net/pitchblende/archives/

    chainerで最適化数学 - Qiita
  • ChainerやTensorFlowでGPUを使うと毎回結果が変わる理由と対策 (まとめ) - Qiita

    ##結論から ChainerやTensorFlowなどの機械学習(特にDeepLearning)フレームワークでGPUを使うと、誤差程度ではあるものの演算結果が毎回変わってしまいます。(非決定的な演算) 「乱数使ってるから当たり前でしょ」って話ではなく、乱数種を指定してもGPU内部での演算順序が非決定的であるためGPU演算の結果は安定しません。 浮動小数点演算なので誤差が出るのは当然だが、その誤差が安定しない(非決定的)なのが気になるところです。 Chainerでは環境変数(CHAINER_CUDNN)の指定またはConvolution2Dなどへのパラメータ追加で事象を回避可能。 TensorFlowについてはGoogle社曰く「EigenライブラリまたはcuDNNの仕様によるとのこと」であり現状では対応策無し。(詳細は次の記事に記載のIssuesを参照のこと) 尚、Caffeでも同様の

    ChainerやTensorFlowでGPUを使うと毎回結果が変わる理由と対策 (まとめ) - Qiita
  • DNN(ディープラーニング)ライブラリ : chainerとTensorFlowの比較 (1) - Qiita

    #はじめに 近年,機械学習の分野でディープラーニング(ディープニューラルネットワーク:DNN)に注目が集まっています.それに伴って様々なDNNライブラリが公開されていますが,それぞれどんな違いがあるのでしょうか(どれを使えば良いのだろう).稿ではDNNのネットワーク構造を,各ライブラリでどのように記述するのか比較してみたいと思います. 稿で想定するのは,DNNについてはある程度知っているが,ライブラリについては知らないという方への説明です.各ライブラリのチュートリアルを読んで実際にコードを書いたことがある場合は,それ以上の内容はないです. #ライブラリ 多数のライブラリが公開されていますが,稿ではchainerとTensorFlowの2つを扱います.将来的には他のライブラリについても追加できればと思っていますが. 以下ではまず各ライブラリの簡単な基情報だけまとめてみます.速度等の比

    DNN(ディープラーニング)ライブラリ : chainerとTensorFlowの比較 (1) - Qiita
  • 1