タグ

ブックマーク / qiita.com/koshian2 (5)

  • 対決!RTX 2080Ti SLI vs Google Colab TPU ~PyTorch編~ - Qiita

    RTX 2080Tiを2枚使って頑張ってGPUの訓練を高速化する記事の続きです。TensorFlowでは複数GPU時に訓練が高速化しないという現象がありましたが、PyTorchを使うとRTX 2080Tiでもちゃんと高速化できることを確認できました。これにより、2GPU時はTensorFlowよりも大幅に高速化できることがわかりました。 前回までの記事 対決!RTX 2080Ti SLI vs Google Colab TPU ~Keras編~ TensorFlow/Kerasでchannels_firstにするとGPUの訓練が少し速くなる話 ハードウェアスペック GPU : RTX 2080Ti 11GB Manli製×2 SLI構成 CPU : Core i9-9900K メモリ : DDR4-2666 64GB CUDA : 10.0 cuDNN : 7.5.1 PyTorch :

    対決!RTX 2080Ti SLI vs Google Colab TPU ~PyTorch編~ - Qiita
    mattn
    mattn 2019/05/23
    「TensorFlowのケースではモデルが大きかろうが小さかろうが、確保できるだけめいいっぱいメモリ確保している」
  • 対決!RTX 2080Ti SLI vs Google Colab TPU ~Keras編~ - Qiita

    RTX 2080Tiを2枚買ったので、どれぐらいの性能が出るかColabのTPUと対決させてみました。さすがにRTX 2080Tiを2枚ならTPU相手に勝てると思っていましたが、意外な結果になりました。 スペック GPUGPU : RTX 2080Ti 11GB Manli製×2 SLI構成 CPU : Core i9-9900K メモリ : DDR4-2666 64GB CUDA : 10.0 cuDNN : 7.5.1 TensorFlow : 1.13.1 GPUだけで30万円以上はします。2019年5月現在、ディープラーニングの環境構成としては相当強い部類です。GPUは1個250Wなので、GPU2枚をフルに動かしただけで500W近い電力消費が加算されます。 GPUの場合は、「ELSA GPU Monitor」を使って、GPUのロードや消費電力をモニタリングします(5秒ごとCSV

    対決!RTX 2080Ti SLI vs Google Colab TPU ~Keras編~ - Qiita
    mattn
    mattn 2019/05/14
    Google Colab TPU は RTX 2080Ti の2枚刺しより強くなるケースがあると。
  • [最新論文]Octave Convolution(OctConv)を試してみる - Qiita

    Goodfellow先生が紹介していた面白い手法。シンプルかつ強力なCNNの計算コストの削減手法。精度も上がるらしい。サクッと実装できちゃったので試してみました。 OctConv is a simple replacement for the traditional convolution operation that gets better accuracy with fewer FLOPs https://t.co/5CSylHVdA2 pic.twitter.com/kTK96gNj1i — Ian Goodfellow (@goodfellow_ian) April 15, 2019 元の論文 Y. Chen, H. Fang, B. Xu, Z. Yan, Y. Kalantidis, M. Rohrbach, S. Yan, J. Feng. Drop an Octave: R

    [最新論文]Octave Convolution(OctConv)を試してみる - Qiita
    mattn
    mattn 2019/04/21
  • GoogleがPerfumeのライブに技術提供した「Reframe Visualization」をKeras/Scikit-learnで再現する - Qiita

    GooglePerfumeのライブに技術提供した「Reframe Visualization」をKeras/Scikit-learnで再現するPython機械学習scikit-learnKerasNK-POP Perfume紅白歌合戦でディープラーニングについて言及して話題になりましたが、それに関連する技術Googleのブログで公開されていたので再現してみました1。来はColud Vision APIを使ったとのことですが、精度や速度を犠牲にすれば、普通のPCかつ1人でも実装できてしまいます。その方法を書いていきます。 訂正:Googleが使ったではなく、正しくはライゾマティクスに使っていただいただとのことです。失礼いたしました2。タイトルも訂正いたしました。 元ネタ こちらのブログに詳しく書かれています。 Perfume とライゾマティクスの新たな試みを支える Google の機

    GoogleがPerfumeのライブに技術提供した「Reframe Visualization」をKeras/Scikit-learnで再現する - Qiita
    mattn
    mattn 2019/01/09
    「北朝鮮の著作物は最高裁の判例により、日本では保護義務がない、つまりパブリックドメインとして使うことができます」へー。
  • Google ColaboratoryのTPUを試してみる

    TL;DR ColabのTPUを使って今すぐCNNを試してみよう。ものすごい速いぞ。 はじめに 9/26夜、Google Colaboratoryユーザーに激震が走った。 ハードウェアアクセラレータにTPUが使えるようになってる!?TPU(Tensor Processing Unit)凄さはこのニュースを見れば恐ろしいほど伝わってくる。 COOL Chips 21 - GoogleWebサービスを支える「TPU」 https://news.mynavi.jp/article/20180424-621091/ TPU v1はIntelのHaswell CPUとNVIDIAのK80 GPUと比較すると、性能は15~30倍、電力効率は30~80倍になっているという。 NVIDIA K80は現在ColabGPUアクセラレータとして用いられているGPUだ。もしこの15~30倍という値が当なら、

    Google ColaboratoryのTPUを試してみる
    mattn
    mattn 2018/09/30
  • 1