タグ

2017年7月7日のブックマーク (5件)

  • gitとsshのconfigについて(備忘録) - Qiita

    Host Myserver HostName (適当なIPアドレス or FQDN) Port 22(設定したやつ) IdentityFile ~/.ssh/myserver/id_rsa User hogehoge Host BitBucket HostName bitbucket.org(絶対これ) IdentityFile ~/.ssh/bitbucket/id_rsa TCPKeepAlive yes IdentitiesOnly yes User git(任意) Host GitHub HostName github.com(絶対これ) IdentityFile ~/.ssh/github/id_rsa TCPKeepAlive yes IdentitiesOnly yes User git(絶対これ)

    gitとsshのconfigについて(備忘録) - Qiita
  • 可変長ミニバッチを使ったChainerの系列学習の実装 - Qiita

    はじめに Chainer 1.16.0 のリリースでNStepLSTMが実装されました。 NStepLSTMはその名のとおりLSTMの多層化が容易に実現できるモデルとなっています。 内部的にはcuDNNで最適化されたRNNが使われており、従来のLSTMに比べて高速に動作します。 さらにNStepLSTMではミニバッチのデータの長さをそろえる必要がなくなり、各サンプルをリストに入れたものをそのまま入力できるようになりました。 これまでのように-1でpaddingしてignore_label=-1とwhereを駆使したり、データの長さ順にソートしたリストを転置して入力したりという手順が不要になりました。 そこで今回はこのNStepLSTMを使って系列ラベリングの学習をしてみました。 従来のLSTMとのインタフェースの違い NStepLSTMはこれまでのLSTMと入出力が異なるので、今まで実装し

    可変長ミニバッチを使ったChainerの系列学習の実装 - Qiita
  • DNN(ディープラーニング)ライブラリ : chainerとTensorFlowの比較 (2) ~CNN編~ - Qiita

    はじめに 前回の記事 では,multi layer perceptron(MLP)のサンプルコードを走らせてみました.今回は畳み込みニューラルネットワーク(CNN)です. サンプルコード データセット・ネットワーク構造 データセットは前回と同じくMNISTの手書き文字データセットを使います($28 \times 28$の画像). CNNの説明及びネットワーク構造について次の図を作ってみました. 畳み込み層 畳み込みのフィルタサイズは$5 \times 5$で,ゼロパディングをしているので出力画像は入力画像と同じサイズになります.このパディングの操作,いまいち何のためにやっているか(やっていいのか)が説明できませんでした. サイズが途中で変わらないので次元の計算が簡単になる? 画像端の部分の特徴量抽出ができる? という感じなのでしょうか? プーリング プーリング層ではマックス・プーリングを使

    DNN(ディープラーニング)ライブラリ : chainerとTensorFlowの比較 (2) ~CNN編~ - Qiita
  • What are deconvolutional layers?

    I recently read Fully Convolutional Networks for Semantic Segmentation by Jonathan Long, Evan Shelhamer, Trevor Darrell. I don't understand what "deconvolutional layers" do / how they work. The relevant part is 3.3. Upsampling is backwards strided convolution Another way to connect coarse outputs to dense pixels is interpolation. For instance, simple bilinear interpolation computes each output $y_

    What are deconvolutional layers?
  • ニューラルネットワークにおけるDeconvolution - Qiita

    ディープニューラルネットワークを用いた画像生成モデル(DCGAN)を調べていたところ、Deconvolutionという単語が出てきたので調べてみました。 Convolutionとは? Convolutionは日語だと畳み込みと訳されます。 Deep Convolutional Neural Network = 深層畳み込みニューラルネットワークが画像認識タスクで高い識別率を叩き出して話題になっているやつですね。 詳しいことはこっちの記事へ Azure Machine Learningをわかった気になるために細かいことは気にせずに機械学習のことをまとめてみる - ディープラーニング イメージとしてはこの画像の通りで、元画像のピクセルや特徴マップの値にカーネル(フィルタ)をかけて、そのカーネルが表す特徴っぽさを抽出するような作業です。 画像引用:深層畳み込みニューラルネットワークを用いた画像

    ニューラルネットワークにおけるDeconvolution - Qiita