どうもこんにちは chainerなんか早くなったらしいですね。 とても素晴らしい技術力だと思いますが、個人的には高速化よりも詳しい使い方が書いたドキュメントや日本語ドキュメントの充実に力を入れてほしい気がします。 (GPU128枚も持ってないし…) 128枚もGPUを使って何かするようなところって大きな企業かでかい研究機関しかないと思うし、そういったところが使うかと言うと使わない気もする。 PyTorchとかchainerに似ているフレームワークも出てきていて正直chainerどうなるんだろうという感じはしていますが、PaintsChainerとかあったり一応日本では流行ってるみたいなので使ってみました。 Trainer Trainerってなんだって話ですが、今まではバッチ処理を自分で書いたりしなければならなかったのがTrainerによって抽象化されて書く必要がなくなりました。 いまどれだ
- はじめに - こんにちは. @vaaaaanquishです. この記事はChainer Advent Calender 2015 11日目の記事です. 今回は滑り込みで, 特に何か新しい事をやった訳でもないですが, 一応記事にする事に意味があると思うので投稿しておきます. 今回はただこれを動かすだけです. 完全に備忘録みたいな感じです. ご了承下さい. 多分誰でもできると思います. - Deep Q-Networkとは - Ugo-Nama氏の記事は非常に分かりやすく, Deep Q-Networkに至るまでの研究遷移も書かれており, かなり参考になると思います. ここでは一応の概略のみ記述しておきます. Deep Q-Networkは強化学習(Reinforcement Learning)の一種であるQ学習(Q-learning)に対して, ニューラルネットワーク(Neural Ne
以前ブログで発表した、chainerの自作GUIクライアント、ほそぼそと開発進めています。 画像分類対応に意外とかかってしまった。 GitHub - fukatani/ChainerWing: GUI deep learning IDE based on chainer. 今までどおり、GUI上で、ドラッグアンドドロップでネットを構築します。 GUI上でデータオーグメンテーションの設定もできます。プレビューも確認できる。 サンプルプロジェクトの使い方はこちらをご覧ください。 ChainerWing/examples/image_classification at master · fukatani/ChainerWing · GitHub バグはわんさかあると思われる。
Chainerでディープラーニング ここのところ、ディープラーニングのフレームワークはTensorFlowを使っています。以前はChainerも使っていたのですが、Chainer v2.0になり、以前画像認識とか試していたコードも動かなくなってしまい、やる気を失っていたのですよね。 そんな折、たまたまNVIDIAの機械学習のセミナを受ける機会があったのですが、GPU(Titan)積んだサーバに、Jupyterの環境が構築されていて、参加者はサーバにアクセスしてエンターキー連打していくだけでそれっぽい結果が出て、凄いやった気分になるし、絶対初心者は自分で環境出来ないからNVIDIAの環境にお金払うことになるしで、とてもよく設計されたセミナでした。 と書くと凄い悪徳セミナのようですが、Jupyterを使って、説明を読んでから、実際にコードを実行してその結果を確認していくというハンズオン形式は、
GitHub - fukatani/ChainerWing: GUI deep learning IDE based on chainer. ※一応動きます。 こんな感じ。 ぽちぽちやってるとニューラルネットが組みあがります。chainerベースです。 めちゃ機能が少ないですが、今後充実する予定。たぶん。 インストール pip install chainer --pre pip install cupy pip install pyqt5 git clone https://github.com/fukatani/ChainerWing.git cd ChainerWing python setup.py install いまんとこPython3.5、chainer 2.0.0 a1のみサポート。Python3.4は今後サポート。きっと。 MNIST https://github.com/
最近,Deep Learning Frameworkのリリースが続いている.私は,普段は TensorFlow を使うことが多いのだが,Blog記事やGitHubの情報について,ChainerやPyTorchのコードを参考にする機会も多い.特に最近,GitHubにてPyTorchコードが増えており,PyTorchが気になる存在である一方,学習する上での情報量はChainerが多いか?といった悩ましい状況となっている. ここでは,簡単なコードを書きながら,2つのFramework(Chainer vs. PyTorch) を比較してみたい. (プログラミング環境は,以下になります: - Chainer 2.0.0 - PyTorch 0.1.12 - Python 3.5.2 (or 3.5.3) ) Chainerで線形回帰を実装 まず必要なパッケージをimportする
2.24に行われたChainer meetup#4ではChainer v2.0.0a1のリリースの発表がありました。詳しくはYouTubeの配信(1:39:25~)が参考になります。 今まで、仮想環境などまったく考えずに1つの環境だけで使っていましたが、今回のv2.0以降とv1.Xでは一部互換性がなくなります。最近TensorFlowもver0.12 ⇒ ver1.0に変わったこともあり、古いバージョンのコードが使えるように、切り替えて使える形にしておくと便利だと思います。調べてみると、「Condaで作ってる仮想環境の切り替えをJupyter上で簡単に行う方法」がとても便利そうだったのでやってみました。 環境 Windows 10 Professional GeForce GTX 1070 CUDA Toolkit 8.0 (8.0.44) cuDNN 5.1 Anaconda3 4.2.
tensorboardは使ってみるとかなり便利です。グラフやヒストグラム、画像などが描画できて、しかもインターフェースも良く出来ています。 私は最近では、chainerをよく使っているのですが、可視化ツールとしてこの便利なtensorboardを使いたかったので、chainerでtensorboardを使うパッケージを作りました。 pytorchで同じことをやっている方がいましたので、そちらをもろにパクってベースにして作っています。 使い方 基本的にはdemp.pyやdemo_graph.pyを実行してもらうとどんな感じか分かるかと思います。グラフ描画、ヒストグラム、画像などの描画に対応しています。 スカラ ヒストグラム 画像 実装について グラフ生成のところが少し悩まされました。 基本的にはchainerのcomputational_graphを使ってノードとエッジを算出し、tensor
画像の前処理を行う Chainer の imagenet では、256×256 の画像を扱うことが前提となっているようなので、収集した画像をリサイズします。また、imagenet で学習を行う際に、画像のパスとその画像のラベルを記述したテキストファイルが必要になるので、ここで作成します。 # coding: utf-8 import os import shutil import re import random import cv2 import numpy as np WIDTH = 256 # リサイズ後の幅 HEIGHT = 256 # リサイズ後の高さ SRC_BASE_PATH = './original' # ダウンロードした画像が格納されているベースディレクトリ DST_BASE_PATH = './resized' # リサイズ後の画像を格納するベースディレクトリ LAB
概要 Chainerの小ネタ 追記(2017/10/16) 新しいバージョンを作りました。 はじめに Chainerでネットワークを設計する時は、ChainにLinkを追加して__call__で各層の出力を設計すると思います。 コードで書くとこんな感じです。(わざと巨大なネットワークにしています) class Chain(chainer.Chain): def __init__(self): super(Chain, self).__init__() with self.init_scope(): self.l1 = L.Linear(None, 1024) self.l2 = L.Linear(None, 512) self.l3 = L.Linear(None, 256) self.l4 = L.Linear(None, 128) self.l5 = L.Linear(None, 10
概要 現在の日付を$T$とすると、$T+1$から$T+30$までにおける日次価格の単純移動平均をDeepLearningを使って予測し、 ロングポジションを持った(もしくはショート)時の価格より、予測した移動平均を上(下)回れば利益確定するようなシミュレーション売買を行いました。また、30日保持したら強制的に手仕舞いするようにします。 エントリーは日時毎に残高があれば全力で行うようにします。 ※オレンジのラインが30日後の30日単純移動平均になります。緑がx軸の日付時点における為替価格です。 使用したDLフレームワーク chainer ver1.3~1.5 ちょうどver1.5で互換性が大幅に変更になって、対応するのが大変でした。 2017/8現在はver2.0.2になっているみたいですね。 使用データ みずほヒストリカルデータ https://www.mizuhobank.co.jp/r
AlphaGoの論文ではSL policy networkは13層のCNNとなっているが、画像認識の分野では単純なDCNNよりGoogLeNet(Inception)やResidual Network(ResNet)が高い精度を上げている。 ResNetで層を増やすのが最も精度が上がるが、層が増えるほど学習時間も増える。 ResNetはカーネルサイズ、フィルター枚数を少なくして層を増やす、狭く深くという方向だが、ResNetと同じ構造で、層を浅くしてカーネルサイズ、フィルター枚数を増やしたものに、Wide Residual Networksがある。 学習時間が増えない方が個人としては望ましいので、Wide Residual Networksを試してみた。 Wide Residual Networks ResNetは、以下のように2層の畳み込みのブロックとショートカットを足し合わせ、それを複
ディープラーニングは各層の種類、活性化層の種類、オプティマイザの種類、オプティマイザのハイパーパラメータ、などなどたくさんあり、 手で最適化していくのは大変です。 そんなとき、 1. グリッドサーチ:パラメーターの候補の組み合わせパターンを全て調べる。 2. ランダマイズドサーチ:パラメーターの候補の組み合わせパターンを全て調べる。 3. その他賢いアルゴリズム系のサーチ:ベイジアン最適化、Tree-structured Parzen Estimator Approach(hyperopt) といった、ものが使えます。 グリッドサーチはハイパーパラメータが少ない機械学習アルゴリズムでは有効ですが、ディープラーニングではあまりおすすめしません。実際には2.か3.を選ぶことになります。 賢い系のアルゴリズムはより有望そうなパラメータを試そうとしてくれます。 今回はhyperoptを使った例を書
モチベーション 従来の音楽推薦技術は協調フィルタリングを用いることが多かったようですが、協調フィルタリングではマイナーな曲、新曲など「ユーザーからの評価が集まらない」作品をうまく扱えないという欠点があります。 音楽推薦技術のもう一つのアプローチ、「楽曲特徴量を抽出して推薦に活かす」という方法ならば、前述の問題を回避することができそうです。 そこで'End-to-end learning for music audio'1という論文を使って勉強しようとしたところソースコードが見つからなかったので、自力で再現して「DeepLearningで楽曲特徴量を抽出し、タグを予測する」タスクを行うことにしました。(なお、一部作業を変更し、完全な再現ではないことをご了承くださいませ。) 音楽をPython, DeepLearningで処理する記事があまり見つからなかったので、何かの参考になれば幸いです。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く