タグ

TensorFlowに関するy034112のブックマーク (28)

  • Googleの事前学習済みモデルを手軽に利用出来るTensorFlow Hub - Technical Hedgehog

    自然言語処理におけるword2vecや画像処理におけるInceptionなど、一般的に広く用いられているモデルを上流で用いる事は多くあります。汎用的な知識を扱えるメリットがある一方、学習には大量のデータセットの準備と膨大な学習時間がかかってしまいます。 この問題に対して、あらかじめ学習させた状態のモデル(事前学習済みモデル)を用意しておき上流に転移させる方法があります。記事ではその事前学習済みモデルについて、Googleが提供するのライブラリであるTensorFlow Hubを紹介します。 TensorFlow HubはGoogleの大量リソースを用いて学習したモデルを手軽に実装できるほか、自作したモデルを別環境で利用しやすいように自作することも可能です。記事では概要と特徴、利用方法を紹介します。 今回説明するTensorFlow Hubの利用方法、作成方法について実験したコードはGi

    Googleの事前学習済みモデルを手軽に利用出来るTensorFlow Hub - Technical Hedgehog
  • TensorFlow : Programmer’s Guide : スレッディングとキュー – OpenAI API / Gemini API | ClassCat® Chatbot

    TensorFlow : Programmer’s Guide : スレッディングとキュー (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 更新日時 : 09/10/2017; 07/26/2016 作成日時 : 03/03/2016 * ページは、TensorFlow 家サイトの Programmer’s Guide – Threading and Queues を翻訳した上で 適宜、補足説明したものです: https://www.tensorflow.org/programmers_guide/threading_and_queues * (obsolete) ページは、TensorFlow 家サイトの How To – Threading and Queues を翻訳した上で 適宜、補足説明したものです: https://www.tensorflo

  • Implementing Batch Normalization in Tensorflow - R2RT

    Batch normalization, as described in the March 2015 paper (the BN2015 paper) by Sergey Ioffe and Christian Szegedy, is a simple and effective way to improve the performance of a neural network. In the BN2015 paper, Ioffe and Szegedy show that batch normalization enables the use of higher learning rates, acts as a regularizer and can speed up training by 14 times. In this post, I show how to implem

  • TensorFlowのStatefulな変数でキューを作る - Qiita

    TensorFlowのtf.Variable型は主にネットワークの重みやバイアスを保持しておくために利用されますが、これを使ってデータ構造のキュー(Queue, 待ち行列)を作ることもできます。このような使い方があることは、PixelCNNの生成過程を高速化したRamachandran氏のFast PixelCNN++のコードを読んでいて知りました。変数は初期化かOptimizerによる更新以外では値を変えるものではないと思っていた僕には目から鱗でした。 以下が、自分で試してみたコードになります。TensorFlowはバージョン1.5を使いました。delay関数で長さ3のキューと、それの先頭から要素をポップするオペレータを定義しています。 import tensorflow as tf import numpy as np def delay(x, n=3): queue = tf.Var

    TensorFlowのStatefulな変数でキューを作る - Qiita
  • 畳み込みニューラルネットワーク(CNN)でマイクラのバイオーム識別 - 独学でも人工知能作ります!

    Hello, everyone! 今日はTensorFlow公式チュートリアルを参考にしてMinecraftのバイオーム16種を識別させるよ! 前準備・予備知識 私はWindows機にUbuntuの仮想環境を突っ込んで動かしていますが、 その辺の周辺環境の話は一旦おいておきます。これは後々記事にしましょう。 まずは今回TensorFlowで設計する畳み込みニューラルネットワーク(Convolutional Neural Network, 通称"CNN")と、これで識別するMinecraftのバイオームがどのようなものかを説明していきます。 畳み込みニューラルネットワーク(CNN) CNNでは2次元上の特徴抽出を行うことが最大の特徴で、画像認識の分野で広く使われています。 対して、おそらく最も知られているニューラルネットワークの多層パーセプトロンでは入力は1次元として扱われます。 今回設計す

    畳み込みニューラルネットワーク(CNN)でマイクラのバイオーム識別 - 独学でも人工知能作ります!
  • tensorflowの計算グラフにif文を入れる - HELLO CYBERNETICS

    はじめに if文 一方の値を返す関数 一方の関数を返す関数 実用上の形式 バッチデータごとにif文の判定を変える はじめに TensorFlowを使いこなすためには、TensorFlowの勉強をする必要があります。 TensorFlowではPythonで計算グラフを構築しておき、あとの演算処理はTensorFlow(C++)に任せることになります。演算処理の部分にPythonの制御構造(for文やif文)を入れることはできないため、制御構造を持つ計算グラフそれ自体を作ってやる必要が出てきます。 今回はTensorFlowの計算グラフに制御構造を入れる2つの関数を紹介します。 if文 TensorFlowの計算グラフにif文を入れるためには「tf.cond」を使います。tf.condの使い方を見る前に、これと同じ動作をするPythonのプログラム例を見ましょう。 一方の値を返す関数 def

    tensorflowの計算グラフにif文を入れる - HELLO CYBERNETICS
  • TensorFlowのGPU環境をGCPでさくっと作る方法 - Qiita

    TensorFlowのためのGPU環境をGCPGoogle Compute Engine (GCE)で構築するには、 GPUの割り当て申請(初回のみ。所要時間は約5分) CUDAやcuDNNをインストール(NVIDIAのサイトからダウンロードしたりインストールしたりなんだりでスゲー時間かかって面倒) TensorFlowをインストール(所要時間は約5分) って手順が必要。しかし最近、Cloud DatalabのGPUインスタンスが利用可能になったおかげで、この手順がぐんと簡単になった。 GPUの割り当て申請(初回のみ。所要時間は約5分) Cloud Datalabインスタンスを作成(コマンド一発、待ち時間は15分ほど) これでOK。DatalabインスタンスにはTensorFlowだけじゃなくて、scikit-learnとかpandas、matplotlib等の定番ツールも入ってるので、

    TensorFlowのGPU環境をGCPでさくっと作る方法 - Qiita
  • TensorFlowの計算グラフ内の変数tf.Variableの使い方

    TensorFlowの計算グラフのメリット tf.Variableの作成方法 tf.Variable params: returns: tf.get_variable 変数の使い回し方 スコープ tf.variable_scope tf.name_scope 変数の再利用 変数の種類 まとめ TensorFlowの変数の扱い方は、一般的なプログラミング言語の変数とは随分異なります。TensorFlowや計算グラフを使用したディープラーニングライブラリを使い始めの方は、慣れるのに時間がかかるかもしれません。 記事では、TensorFlowの変数の使い方に焦点を当てて、 計算グラフのメリット 変数の初期化方法 変数の使い回し方 スコープの切り方 変数の種類 について詳しく見ていきます。TensorFlowの変数を使いこなせるようになると、独自のロジックも組むことが出来るようになります。 Te

    TensorFlowの計算グラフ内の変数tf.Variableの使い方
  • Why do we clip_by_global_norm to obtain gradients while performing RNN

  • TensorFlow の RNN チュートリアルやってみた - Qiita

    自分用のメモ/学習を兼ねて、TensorFlow の RNN のチュートリアルを一行ずつみながらやってみる。 LSTM とはなんぞや、とか、そもそもの TensorFlow の使い方とかは、チュートリアル中にあるので割愛。 チュートリアルで用いているコードの内容の解説だけをおこなう。 コードのインデントが2で気持ち悪いとか、この関数 deprecated なんだけど💢といった苦情は Google 社へお願い致します。 対象としているチュートリアルは、 Language and Sequemce Processing の下にある、Recurrent Neural Networks というページ。 データ準備 まずはチュートリアル中で使用するデータ/コードのDLから。 コード TensorFlow 体にはチュートリアルのコードが一部しか含まれていないため、別途DLが必要。 TensorFl

    TensorFlow の RNN チュートリアルやってみた - Qiita
  • ニューラルネットの共通フォーマット対決! NNEF vs ONNX - Fixstars Tech Blog /proc/cpuinfo

    このブログは、株式会社フィックスターズのエンジニアが、あらゆるテーマについて自由に書いているブログです。 遠藤です。 ニューラルネット界隈では、Caffe、TensorFlow、Chainer をはじめ、数々のフレームワークが群雄割拠の様相を呈しております。弊社でも、プロジェクトに応じて適宜フレームワークを使い分け、日々の業務にあたっております。 多数のフレームワークを扱っていると「あっちのフレームワークで学習したモデルを、こっちのフレームワークで使いたい!」といった、フレームワーク間をまたいでモデルを共有したいというニーズが出てきます。そのために、フレームワーク間で共通して使える交換フォーマットが開発されるようになりました。 そこで、今回はニューラルネットの共通フォーマットとして NNEF と ONNX の2つをご紹介したいと思います。 NNEF とは? 概要 NNEF – Neural

    ニューラルネットの共通フォーマット対決! NNEF vs ONNX - Fixstars Tech Blog /proc/cpuinfo
  • TensorFlow の ptb サンプルを動かす - 終末 A.I.

    TensorFlow で ptb を学習させるサンプルは Recurrent Neural Networks チュートリアルに記載されている通り、 github からソースを落としてきて、tensorflow/models/rnn/ptb に移動し、ptb_word_lm.py を動かすだけで簡単に動作させることができます。 ただし残念なことに、サンプルコードをぱっと見ただけで使い方を理解するのは相変わらずなかなか難しいです。API にのっていないクラスや関数が使われたり、RNN 特有の処理がさくっと書かれているため、サンプルとしてまあ不親切なわけです。 そこで今回も前回の DNN と同様、自己流にサンプルを書き直して使い方を確認してみました。書き直したコードを動作させてみて、だいたい元のコードと同じような性能が出ていそうなので、ざっくりと解説をしてみようと思います。 いつもどおり完成コー

    TensorFlow の ptb サンプルを動かす - 終末 A.I.
  • OpenAI API / Gemini API | ClassCat® Chatbot – クラスキャット

    ◆ クラスキャット は人工知能に関する各種サービスを提供しています。お気軽にご相談ください : 人工知能導入個別相談会(無償)実施中! [詳細] 人工知能研究開発支援 [詳細] 自社特有情報を含むチャットボット構築支援 画像認識 (医療系含む) / 画像生成 PoC(概念実証)を失敗させないための支援 [詳細] ◆ お問合せ : 件に関するお問合せは下記までお願いします。 クラスキャット セールス・インフォメーション sales-info@classcat.com ClassCatJP ⏩ 今月の記事 Amazon Bedrock : 最初の一歩 – 基礎知識と実験 この記事では Amazon Bedrock の最小限の実験をするために必要な手順を説明しています。 Amazon Bedrock は、AI スタートアップ企業や Amazon の高性能な基礎モデルを統一 API を通して利用

  • TensorFlowで必要な変数を選択してsave/restoreする - Qiita

    TensorFlowで学習プロセスを分ける際,変数のsave/restoreが必要になるが,これはTensorFlowでは tf.train.Saver クラスがサポートしている.モデルのスケールが小さければ使用する変数全部をsave/restoreしてもよいが,モデルが大きくなると当に必要な変数だけをsave/restoreしたくなってくる. 記事では,手書き数字分類MNISTを例に,変数のsave/restore方法について確認していく. (環境は,Python 2.7.11, tensorflow 0.8.0 になります.) 必要な変数にtrainable=Trueをつける 何が必要かについてはプログラムの内容によっていろいろな状況が考えられる.一番簡単なのは,使った変数全体(tf.Variableクラス変数)をsaveするやり方である. chkpt_file = '../MNI

    TensorFlowで必要な変数を選択してsave/restoreする - Qiita
  • TensorFlow の名前空間を理解して共有変数を使いこなす - Qiita

    イントロ これは、TensorFlow Advent Calendar 2016 の9日目の記事です. 2015年の11月に公開されたTensorFlowですが,公開当初から「名前空間」の機能がサポートされていました.これはTensorBoardによるグラフ視覚化において使われますが,もちろんそのためだけにあるわけではありません.名前空間は,識別子の管理に非常に有効です.強力な「名前空間」サポートというとC++を思い出しますが,C++の教則(独習C++)から引用します. 名前空間(namespace)の目的は識別子の名前を局所化し,名前の競合を避けることです.C++のプログラミング環境では,変数,関数,クラスの名前が急増を続けてきました.名前空間が登場する前は,これらのすべての名前がグローバルな名前空間の中で場所を取り合い,多くの競合が発生していました. 一方,Pythonの変数スコープ

    TensorFlow の名前空間を理解して共有変数を使いこなす - Qiita
    y034112
    y034112 2018/02/08
    tf.variable_scope(...), tf.get_varible(...) を使用した、モデルの共有重みの実装方法。 GAN の Generator, Descriminator の実装等でよく使用する。
  • MNISTにバッチ正規化を適用

    多層ニューラルネットでBatch Normalizationの検証 - Qiitaでクォートされていた、 バッチ正規化使ってないなら人生損してるで If you aren’t using batch normalization you should というのを見て初めてニューラルネットワークでのバッチ正規化というものを知った。 なんか使うだけでいいことずくめらしいので調べてみた。 イントロ論文はBatch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shiftにある。 中身はよく理解してないけど、学習時のミニバッチごとに、各レイヤーの各要素ごとに正規化して学習させることで内部共変量シフト(Internal Covariate Shift)を減らすことができて、それによって学

    y034112
    y034112 2018/02/08
    batch normarization
  • GitHub - tensorflow/nmt: TensorFlow Neural Machine Translation Tutorial

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - tensorflow/nmt: TensorFlow Neural Machine Translation Tutorial
  • Module: tf.contrib  |  TensorFlow v1.15.0

    Contrib module containing volatile or experimental code. Modules autograph module: This is the legacy module for AutoGraph, kept for backward compatibility. batching module: Ops and modules related to batch. bayesflow module: Ops for representing Bayesian computation. checkpoint module: Tools for working with object-based checkpoints. cloud module: Module for cloud ops. cluster_resolver module: St

  • tf.nn.dynamic_rnn  |  TensorFlow v1.15.0

    Deploy ML on mobile, microcontrollers and other edge devices

  • TensorFlow勉強会(5) TensorFlowを用いた様々なRNNの実装(1)

    y034112
    y034112 2018/01/31
    tf.contrib.rnn.BasicLSTMCell(...), tf.contrib.rnn.MultiRNNCell(...), tf.nn.dynamic_rnn(...) あたりの使い方に言及しているプレゼン動画