Kerasに関するgt0824のブックマーク (2)

  • 複数のGPUを使ってCloudML上でモデルをトレーニングする

    こんにちは、GMOアドマーケティングのS.Rです。 良いモデルを作るには、大きなサイズの学習データが必要です。そして、高速にモデルをトレーニングすることができれば、イテレーションの短縮になります。今回は高速にモデルをトレーニングするために、複数のGPUでディープラーニングのモデルをトレーニングする方法を投稿します。記事中の図説は、筆者が自らの環境で作成したものを含みます。 1. LibraryとTool: 今回は下記のディープラーニングのツールまたはライブラリを利用していました。 Tensorflow ディープラーニングに対応しており、Googleの各種サービスなどでも広く活用されている。 2017年2月15日に TensorFlow 1.0 がリリースされた。 対応プログラミング言語はC言語、C++PythonJavaGo。 対応OSは64ビットのLinux(ただしバイナリ配布は

    複数のGPUを使ってCloudML上でモデルをトレーニングする
  • KerasでTPUを使ってトレーニングをする

    こんにちは、GMOアドマーケティングのS.Rです。 Googleが開発しているTPUをご存知ですか?TPUはディープラーニングを高速化するため、Googleが開発したプロセッサです。TPUでディープラーニングのモデルのトレーニング時間は20倍以上の改良が可能です。2018年9月26日にColabというGoogleが提供されている、 機械学習のオンラインノートサービスでTPUインスタンスの無料提供を始めました。今回はColabでTPUを利用する方法を投稿させていただきます。記事中の図説は、筆者が自らの環境で作成したものを含みます。 1 Colabのインスタンスを作る Colabの利用を始める最初のStepは、Colabのファイルを作ります。Google Driveの管理画面へ遷移し、新しいColabのファイルを作ります(図1)。 図1: Colabのインステンスを作る 2 TPUを設定する

    KerasでTPUを使ってトレーニングをする
  • 1