タグ

gpuとtensorflowに関するchess-newsのブックマーク (3)

  • Google ColabのTPUでResNetのベンチマークを取ってみた

    TPUを使った場合は精度がかなり落ちていますが、これは精度向上に寄与していたLearningRateScheduler(keras.callbacks)がTPUでは機能していないためです。Callback内で学習率変化させても効果がなかったので、TensorFlowの低レベルAPIでどうにかするか、バグ直されるまで待つしかなかと思います。TPU(上)とGPU(下)のエラーの推移です。どちらもKerasの例です。 リアルなデータで学習率調整することはあまりないのですが、CIFARの場合は学習率調整が重要なのでここだけは注意が必要です。 ちなみに速度はむちゃくちゃ速いです。GPUでは層を深くすればするほど遅くなっている自然な結果となっているのに対し、TPUではほぼ定数時間で処理できています。おそらく層が浅い場合は、TPUでは何か別の要素がボトルネックとなっていて、体の計算性能が出せていないと

    Google ColabのTPUでResNetのベンチマークを取ってみた
  • 【秒速で無料GPUを使う】深層学習実践Tips on Colaboratory - Qiita

    2019/5/11 PR: こちらの内容を含め、2019年5月11日発刊の 図解速習DEEP LEARNINGというができました。[2019年5月版] 機械学習・深層学習を学び、トレンドを追うためのリンク150選 - Qiitaでも、一部内容をご覧いただけます 2019/3/9 Colaboratoryに関する情報交換Slackを試験的に立ち上げました。リンクより、登録・ご参加ください。 2019/3/3 TensorBoardに公式対応しました。また、ランタイムのRAM/ディスク空き容量が一目で確認できるようになりました。後ほど記事に追記します。 はじめに Colaboratoryは、無料で使うことができ、ほとんどの主要ブラウザで動作する、設定不要のJupyterノートブック環境です。Googleが、機械学習教育、研究用に使われることを目的に、無償提供しています。ざっくりというなら、

    【秒速で無料GPUを使う】深層学習実践Tips on Colaboratory - Qiita
  • 長文日記

    長文日記
    chess-news
    chess-news 2015/11/22
    アイドルaiとかみんなで、分担処理して、後で合算できないのかな。というか、google画像検索のアイドル処理精度とかどうなんだろう。
  • 1