サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
大谷翔平
hirotaka-hachiya.hatenablog.com
google colaboratoryは、github、gistなどと連動させることができ、colaboratory上で作成したファイルを気軽にこれらの外部のサイトで保存し、公開することができる。 まずは、colaboratoryの画面のファイルメニューから「GitHubにコピーを保存」を選択する。 初めての場合は、githubの認証があるが、認証が完了すると以下のような画面が表示されるので、保存先のレポジトリを選択する。 今回は、hhachiyaに作ったcolaboratoryレポジトリに保存してみたところ、以下のような拡張子が「ipynb」のjupyter notebookのファイルが保存された。 github.com 保存と言っても、githubなので、ちゃんとcommitされているので、以下のように更新履歴を管理できる。 さらに、githubに保存したファイルは、colaborat
有料版のGoogle driveの「Google one」だが、2TBを年間たった13,000円で利用することができる。 one.google.com ちなみに、iCloudも対抗してなのか、Google oneがiCloudに対抗しているのかわからないが、2TBを同じ料金で利用することができる。 support.apple.com 今回は、そんなgoogle driveを、以下のサイトを参考にubuntuからマウントしてみた。 http://mogi2fruits.net/blog/os-software/linux/ubuntu/4263/ 1)まず、google drive関連のパッケージ用のレポジトリをインストールしupdate > sudo add-apt-repository ppa:alessandro-strada/ppa > sudo apt-get update2)次に
Codilityは、プログラマのコーディング能力を評価するためのオンラインテストである。多くの企業(楽天など)が採用の応募者をフィルタリングするために、このcodilityを用いている。 下図のような画面から"BEGIN TEST NOW"を押すと、テストが開始する。 下図のように、左側の問題を解くためのプログラムコードを右側上のテキストボックスに入力する。プログラムコードは、C、C++、Pythonなどが選択できる。右側真ん中の"RUN"ボタンを押すと作成したプログラムコードを実行し動作確認をすることができる。そして、プログラムコードが完成したら、"SUBMIT THIS TASK"ボタンを押して、投稿するというような流である。 コーディングに自信がある人もない人も、本番のテストの前に、一度、下記の練習問題を解いた方がよい。 https://codility.com/programmer
Deep Learningの各階層の入力データの分布は、学習の過程において、下位層のパラメータが更新されることにより変化する。各階層の勾配は、ミニバッチ内で平均をとることにより推定しているが、この分布の変化により推定に、ミニバッチごとに異なるバイアスが乗りやすくなる。そのため、学習が不安定になるという問題がある。この問題は、internal convariance shiftと呼ばれている。この問題を解決するために、下記の論文では各階層の入力分布をミニバッチごとに平均=0と分散=1とに正規化するbatch normalizationという方法が提案されている。 http://arxiv.org/pdf/1502.03167v3.pdf 今回は、chainerにてBatch normalizationを、各CNNに2つの方法で適用してみた。 1)下記のようにconvと非線形な活性化関数ReL
前回はwindowsでCPU用のdockerでTensorflowを動かしてみた。 hirotaka-hachiya.hatenablog.com 今回は、GPU上でTensorflowを動かすために、GPU版のイメージを使ってdockerコンテナを起動する。 > docker run -it gcr.io/tensorflow/tensorflow:latest-devel-gpu 自動的に必要なパッケージがインストールされ、dockerが起動できたので、pythonでテストをしたところ下記のエラーがでた。 root@d30158b5383d:~# python Python 2.7.6 (default, Jun 22 2015, 17:58:13) [GCC 4.8.2] on linux2 Type "help", "copyright", "credits" or "licens
多階層のニューラルネットワークの勾配法を用いた教師あり学習では、下位層のパラメータは出力までにシグモイド関数が何重にもかかるため、勾配がほぼ0になってしまう問題がある。この問題は、最近ではGradient vanishing「勾配消滅」問題と呼ばれている。意外にも、このGradient vanishing問題を、可視化しているのを本や論文などで見かけたことが無いので、イメージをつかむために、pythonでシグモイド関数を1~4重までプロットしてみた。 1重目は当然ながら普通のシグモイドだが、2重目、3重目、4重目とどんどん潰れていって、4重目は1重目と比較すると平らになる。例えば、グラフの横軸を畳み込みの出力WX+b(W:重みパラメータ、bバイアスパラメータ)だとして、何重にもシグモイドをかけていった場合が縦軸の値だとすると、一層目のパラメータW、bは、どんな値をとろうとも、最終的なネット
Caffenetの学習済みモデル(bvlc_reference_caffenet.caffemodel)を、Flickrの画像を使ってfine-tuningしてみた。基本的には、caffeのチュートリアルを参考にした。 まずは、Flickrから画像をダウンロード。 > python examples/finetune_flickr_style/assemble_data.py --workers=1 --images=2000 --seed 831486 Downloading 2000 images with 1 workers... Writing train/val for 2000 successfully downloaded images. 「workers=-1」だとエラーが出たので、「workers=1」に設定して実行した。 次に、models/models/finetun
PFNがChainerという新しいDeep Learningのフレームワークを公開したので、早速インストールしてみた。 http://chainer.org/chainer.org インストールは、git cloneを使えば簡単にできる。 > git clone https://github.com/pfnet/chainer.git 次に、MNISTのサンプルコードを実行してみたが、次のようなエラーがでた。 > python chainer/examples/mnist/train_mnist.py Traceback (most recent call last): File "chainer/examples/mnist/train_mnist.py", line 11, in <module> from chainer import cuda, Variable, Function
今回は、Caffenetで、画像分類をしてみる。Caffenetとは、ImageNet Large Scale Visual Recognition Challenge 2012で分類タスクで優勝したAlexNetに、normalizationとpoolingの順番を変えるなどの変更を加えたものである。 まず、ImageNet2012の訓練データで学習済みのCaffenetのモデルbvlc_reference_caffenet.caffemodelを、caffe/models/bvlc_reference_caffenet at master · BVLC/caffe · GitHubからダウンロードし、models/bvlc_reference_caffenetに保存する。 次に、./data/ilsvrc12/get_ilsvrc_aux.shを実行し、caffeで設定されているImg
このページを最初にブックマークしてみませんか?
『hirotaka-hachiya.hatenablog.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く