タグ

TensorFlowに関するsimakawaのブックマーク (3)

  • Windows版TensorFlow 1.13~1.15でGPUを使う (CUDAのインストール) - Qiita

    【目的】 Windows環境のTensorFlowでGPUを使えるようにします。 【内容】 Windows環境のTensorFlow1.13~1.15でCPUよりも高速で処理が行えるGPUを使えるようにします。 TensorFlow2.5以上の場合は下記の記事を参照してください。 【Windows版TensorFlow 2.5以上でGPUを使う (CUDAのインストール)】- Zenn 大まかには以下の手順を行います。 ディスプレイドライバのインストールまたは更新 CUDA 10.0のインストール cuDNN SDKのインストール PATHの設定 GPU版TensorFlowのインストール 詳細手順はTensorFlowの公式手順を参照してください。 【TensorFlow - GPU support】 【システム構成】 記事を書いている2019年4月15日時点では以下の通り。 CUDA

    Windows版TensorFlow 1.13~1.15でGPUを使う (CUDAのインストール) - Qiita
  • 絵で理解するWord2vecの仕組み - Qiita

    皆さん、Word2vec の仕組みはご存知ですか? Word2vec は gensim や TensorFlow で簡単に試せるので使ったことのある方は多いと思います。しかし、仕組みまで理解している方はそう多くないのではないでしょうか。そもそも家の論文でも内部の詳細については詳しく解説しておらず、解説論文が書かれているくらいです。 記事では Word2vec のモデルの一つである Skip-Gram について絵を用いて説明し、概要を理解することを目指します。まずは Skip-Gram がどのようなモデルなのかについて説明します。 ※ 対象読者はニューラルネットワークの基礎を理解しているものとします。 どのようなモデルなのか? Skip-Gram はニューラルネットワークのモデルの一つです。Skip-Gram は2層のニューラルネットワークであり隠れ層は一つだけです。隣接する層のユニット

    絵で理解するWord2vecの仕組み - Qiita
  • カルマンフィルタのコード比較【numpy, pytorch, eager】 - HELLO CYBERNETICS

    はじめに コード比較 numpy pytorch TensorFlow eager execution 速度と結果の比較 結果 第二回戦 結果 はじめに 最近わたしはTensorFlowにボコボコにされています。 計算グラフを書いて、sess.runするまでは何が起こるかわからない!何かが起こっても何が起こっているかは分からない! そんな状態から、TensorFlow eager executionの登場で解放された!……かに思えました。 今回は下記のTensorFlowとnumpyによるカルマンフィルタの実装例に見て、 これがTensorFlow eager executionでどれくらい楽になるかを試してみました(やる前からそれほど楽ではないことは分かっていた)。 カルマンフィルタといえば理論は非常に難解ですが、実装は意外と楽チンで、実用上非常に優れた予測モデル(と言っていいかは微妙で

    カルマンフィルタのコード比較【numpy, pytorch, eager】 - HELLO CYBERNETICS
  • 1