タグ

書き方に関するshikimihuaweiのブックマーク (7)

  • 第3回 PyTorchによるディープラーニング実装手順の基本

    いよいよ、PyTorchを使ったディープラーニングの流れを通して全体的に説明する。ミニバッチ学習を手軽にするデータローダーから始めて、ディープニューラルネットワークのモデル定義、オプティマイザを使った学習、損失/正解率の出力やグラフ表示といった評価までを解説。 (2/2)

    第3回 PyTorchによるディープラーニング実装手順の基本
  • 第3回 PyTorchによるディープラーニング実装手順の基本

    前々回はPyTorchの核となる部分を、前回はPyTorchの基礎部分といえる「テンソルとデータ型」の説明を行った。今回は、4層のディープニューラルネットワークを題材に、PyTorchによる基的な実装方法と一連の流れを解説する。 全3回の大まかな流れは以下の通りである。 (1)ニューロンのモデル定義 (2)フォワードプロパゲーション(順伝播) (3)バックプロパゲーション(逆伝播)と自動微分(Autograd) (4)PyTorchの基礎: テンソルとデータ型 (5)データセットとデータローダー(DataLoader) (6)ディープニューラルネットのモデル定義 (7)学習/最適化(オプティマイザ) (8)評価/精度検証 このうち、(1)~(3)は前々回、(4)は前回で説明済みである。今回は(5)~(8)を説明する。それでは、前々回の核となる部分を簡単に振り返ったうえで、さっそく今回の説

    第3回 PyTorchによるディープラーニング実装手順の基本
  • Pytorchで転移学習 - Qiita

    TL;DR PyTorchを使った転移学習を行ってみます。使用するデータセットはPyTorchのチュートリアルで使われている蟻と蜂のデータセットを使います。ここからダウンロードできます。直接ダウンロード始めるので気をつけてください。 それぞれ120枚ずつ画像が存在し、validationに75枚の画像を使用します。ImageNetなどでpre-trainされたResNet18を使用することでこの少ないデータセットでも比較的高い精度を出すことができます。 Google Colaboratory内でデータセットの準備 GPUを使って学習を進めたいので、Google Colabを使用します。 まず、Google Driveの/content/drive/My Drive内にdataディレクトリを作成します。 この中に先にダウンロードしておいたデータセットをアップロードし、My Driveでマウン

    Pytorchで転移学習 - Qiita
  • Pytorch:Embeddingに学習済みの重みを使う - 機械学習・自然言語処理の勉強メモ

    やりたいこと 事前にWord2Vecなどで学習した分散表現をネットワークの重みとして用いる。 結論としては、Embedding層の重みにテンソル型に変換した分散表現行列をセットするだけで良かった。 備忘録としてコードを残しておく。 (ここでは、Googleの学習済みの分散表現ベクトルを用いた。) これのハンドリングが良く分からったので、いったんgensimで読み込んだ。 import torch import torch.nn as nn import numpy as np import gensim model_dir = './GoogleNews-vectors-negative300.bin' model = gensim.models.KeyedVectors.load_word2vec_format(model_dir, binary=True) syn0にnumpy.nda

    Pytorch:Embeddingに学習済みの重みを使う - 機械学習・自然言語処理の勉強メモ
  • PyTorchでのモデルの中間層へのアクセス方法 - nobUnagaの日記

    PyTorchにはいろいろなモデルの書き方があるけど,このメモの内容を考えると学習パラメタが無いレイヤ含めてinitにもたせておくほうが良いのかもしれない。 (と思ったけど,一番最後のレイヤをとりあえずコピーしてforwardを再定義するやり方ならどっちでも良い,と思った) 重みにアクセスしたい場合 重みを特定の値で初期化した場合などが利用としては考えられるか。 model.state_dict()が簡単。 辞書で返してくれるのでmodelのinitに付けた名前でアクセスが可能。 model = Net() model.state_dict() #=> {'conv1.weight':[...], 'conv1.bias':[...],...} 中間層の出力にアクセスしたい場合 forwardのhookしたり,色々やり方はあるようだけど,モデルの構築の段階からSequencialを使って分

    PyTorchでのモデルの中間層へのアクセス方法 - nobUnagaの日記
  • 第1回 難しくない! PyTorchでニューラルネットワークの基本

    PyTorchの習得は、シンプルなニューラルネットワーク(NN)の、まずは1つだけのニューロンを実装することから始めてみよう。ニューロンのモデル定義から始め、フォワードプロパゲーションとバックプロパゲーションといった最低限必要な「核」となる基機能に絞って解説。自動微分についても簡単に触れる。 連載目次 人気急上昇の「PyTorch」を使いたい。そう考えて、PyTorchの公式チュートリアルを開いて学習を始めてみた、という人は少なくないだろう。しかし、挫折してしまったり、なかなか進まなかったり、という人も少なくないのではないだろうか。 というのも、その公式チュートリアルの、最初の「テンソル」解説だけは(NumPyライクな直観的なAPIなので)難しくないとしても、次が「Autograd(自動微分)」、その次が「ニューラルネットワーク」……と言いつつも、いきなり「CNN(畳み込みニューラルネッ

    第1回 難しくない! PyTorchでニューラルネットワークの基本
  • Pytorchのニューラルネットの書き方 - HELLO CYBERNETICS

    はじめに 簡単なフィードフォワードニューラルネットワーク nn.Module nn.Module part2 Sequential Sequential part2 nn.ModuleList 次回は はじめに Pytorchはニューラルネットを柔軟に設計できるように、様々な実装の方法が提供されています。今回はその中でも基的な書き方をいくつか紹介することにします。書きたいニューラルネットの規模やカスタマイズしたい内容によって書き方を変えれば、効率よく素早いコーディングが可能になるはずです。 前提として以下がimportされている状態で進めます。 簡単なフィードフォワードニューラルネットワーク 今回は隠れ層が2つで、出力層が1つの3層フィードフォワードニューラルネットワークを例に使います。 nn.Module nn.Moduleを継承して書くスタイルは、Chainerでchainer.Ch

    Pytorchのニューラルネットの書き方 - HELLO CYBERNETICS
  • 1