タグ

ブックマーク / qiita.com/AtuNuka (4)

  • Design Documentから見たTensorFlow 2.0の変更点 - Qiita

    記事は、TensorFlow Advent Calendar 2018 の23日目の記事です。 12/25に公開する予定でしたが、12/23が空いていてすでに記事を書き終えてしまったため、少しフライングして公開します。 TensorFlowのGoogle Groupのアナウンス によると、2018年末~2019年初にかけてTensorFlow 2.0が公開される予定です。 とはいえ、執筆時点でr1.13のブランチが切られていることから、TensorFlow 2.0の前に、TensorFlow 1.13が公開される可能性が高そうです。このため、TensorFlow 2.0の公開は2019年になるものと考えられます。 TensorFlow 2.0の機能は、tensorflow/community のページにて公開されているDesign Documentから確認することができます。 記事では

    Design Documentから見たTensorFlow 2.0の変更点 - Qiita
  • TensorFlow内部構造解析 (4.4) 計算グラフ最適化処理1 Grappler - Qiita

    1. Layout Optimizer ソースコード:tensorflow/core/grappler/optimizers/layout_optimizer.cc TensorFlowがデフォルトで採用するデータフォーマットはNHWC形式ですが、GPUに最適なデータフォーマットはNCHW形式です。 このため、GPUで実行するノードについてはNCHW形式のデータフォーマットで実行するように計算グラフを変形することで、GPUで最適な演算が行えるようにします。 なお、計算グラフを変形するときに、必要に応じてNCHW→NHWCまたはNHWC→NCHWのデータフォーマット変換を行うためのTransposeノードを挿入し、計算グラフ内でデータフォーマットの一貫性が取れていることを保証します。 2. Model Pruner ソースコード:tensorflow/core/grappler/optimi

    TensorFlow内部構造解析 (4.4) 計算グラフ最適化処理1 Grappler - Qiita
  • TensorFlow内部構造解析 (2.1) Python層におけるグラフ構築 - Qiita

    記事は、連載記事 TensorFlow内部構造解析 の1つで、Python APIでグラフを構築する処理の内部について、ソースコードレベルで説明した記事になります。 TensorFlowを使って機械学習/深層学習の演算を行う場合、TensorFlowが提供するAPI 1 を使って演算を定義します。演算を定義するために、ユーザはTensorFlowのAPIを呼び出しますが、この時TensorFlow内部で有向非巡回グラフ(DAG)の計算グラフが作られます。 そしてユーザは、演算を定義したあとにセッション(実行環境)を作成し、作成した計算グラフを Session::run() メソッドの引数に渡すことで、計算グラフで定義した演算を実行することができます。 例として、簡単なTensorFlowのサンプルを示します。サンプルは、定数値 1.5 と 2.6 をTensorFlowを使って足し算す

    TensorFlow内部構造解析 (2.1) Python層におけるグラフ構築 - Qiita
  • TensorFlow内部構造解析 - Qiita

    TensorFlowはGoogleが開発した機械学習/深層学習のライブラリで、GitHubにオープンソースソフトウェアとして公開されています。TensorFlowという名は、機械学習/深層学習にメインに携わっている人でなくても、その名前知っている方は多いかと思います。 TensorFlowはドキュメントやサンプルが充実していることから、TensorFlowを使うだけであれば、情報不足により困ることはほとんどありません。しかし、TensorFlowの内部構造を説明した資料は非常に少なく、TensorFlowの内部を理解するためにはソースコードを読む必要があります。 そこで、TensorFlowの内部構造を説明する記事を、連載で書きたいと思います。 現状書こうと考えている記事は以下の通りですが、執筆を進める中で構成の変更や記事の追加も考えたいと思います。 データ構造 Protocol Buff

    TensorFlow内部構造解析 - Qiita
  • 1