こんにちは、シバタアキラです。この度PyDataの本家であるアメリカのコミュニティーで半年に一度開催されているPyDataカンファレンスに出席するため、NYCに行って来ました。11/22-11/23の二日間の日程で行われ、延べ250人ほどが参加したイベントです。その時の模様は、先日のPyData Tokyo第二回ミートアップでもご説明させていただき、また後日記事化されると思いますので、そちらをぜひご覧いただければと思います。 今回はそのPyData NYCカンファレンスで私が発表してきたミニプロジェクトについてお話します。最近各所で話題に上がるディープラーニングですが、これを使った応用を「カメリオ」のサービス向上のために使えないか、というのがそもそものプロジェクトの着想でした。今回PyData Tokyoオーガナイザーとして、またディープラーニングで色々と面白い実験をしている田中さん(@a
What is Torch? Torch is a scientific computing framework with wide support for machine learning algorithms that puts GPUs first. It is easy to use and efficient, thanks to an easy and fast scripting language, LuaJIT, and an underlying C/CUDA implementation. A summary of core features: a powerful N-dimensional array lots of routines for indexing, slicing, transposing, … amazing interface to C, via
2015年7月期 AITCオープンラボ Deep Learningハンズオン勉強会~Caffeで画像分類を試してみようの会~Read less
Caffeを使って画像分類器を作成します。 画像ファイルを用意してツールを起動したらディープラーニングが完了する手軽さを目指しました。 以下の内容はトレーニングの時間を含めても一時間程度で終わるので、よろしければ使ってみてください。 ダウンロード Caffe画像分類 part1.rar 190.00 MB Download Caffe画像分類 part2.rar 100.70 MB Download 前書き Caffeでの画像分類について検索すると、Linuxだ、環境構築だ、Pythonだ、LevelDB作成だと色々出てくるわけですが、こういうディープラーニングと全然関係ない、本質と無関係なところで敷居が高いというのはよくないと思うわけです。 Caffeが数値計算はすべてやってくれるので、使うだけなら本来はプログラミングなんて少しも分からなくてもディープラーニングは使えるはずなのです。
ビッグデータとかの機械学習隆盛の背景にある文脈や、その拠り所となるコンピュータの処理性能から考えても「モバイルデバイス向けOSと機械学習を紐付けて考えようとする」ことはそもそもあまり筋がよろしくない・・・とは思うのですが、やはり長くiOSだけにコミットしてきた身としては、新たに興味を持っている機械学習という分野と、勝手知ったるiOSという分野の交差点はないのかなと考えずにはいられないわけでして。。 そんなわけで、「iOS と機械学習」について雑多な切り口から調べてみました。 iOSで使える機械学習ライブラリ DeepBeliefSDK コンボリューショナルニューラルネットワークを用いた画像認識ライブラリ。iOSとかのモバイルデバイスで処理できるよう、高度に最適化してある、OpenCVと一緒に使うのも簡単、とのこと。 https://github.com/jetpacapp/DeepBeli
一般物体検出で有名なFaster RCNNのデモを動かす。基本的にはREADME.mdに沿って実施すれば問題ない。 1.Faster RCNNレポジトリのコピー gitでFaster RCNNのレポジトリをコピーする。コピーしたディレクトリを$FRCNNとする。 $ git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git 2.Cythonモジュールのビルド $ cd $FRCNN/lib $ make 3.Caffeとpycaffeのビルド $ cd $FRCNN/caffe-fast-rcnn $ cp Makefile.config.example Makefile.config $ vim Makefile.config Makefile.configの編集。 WITH_PYTHON_LAYER :
目次 定義と構造 復元 確率分布 コードサンプル:Deeplearning4jを使ったIrisで制限付きボルツマンマシンを起動する パラメータ及びkについて 連続的なRBM 結論及び次のステップ 定義と構造 Geoff Hintonによって開発された制限付きボルツマンマシン(RBM)は、次元削減、分類、 回帰 、協調フィルタリング、特徴学習、トピックモデルなどに役立ちます。(RBMなどの ニューラルネットワーク がどのように使われるか、さらに具体的な例を知りたい方は ユースケース のページをご覧ください。) 制限付きボルツマンマシンは比較的シンプルなので、ニューラルネットワークを学ぶならまずここから取り組むのがよいでしょう。以下の段落では、図と簡単な文章で、制限付きボルツマンマシンがどのように機能するのかを解説していきます。 RBMとは浅い2層のニューラルネットであり、ディープビリーフネッ
流行りのDeep LearningをC#で試してみる.機械学習やコンピュータビジョン,信号処理等の.NET向けのオープンソースのライブラリであるAccord.NET FrameworkにDeep Learningが実装されているのでそれを使う. Deep Belief Networks(DBN), Deep Neural Networks(DNNs)とおまけにRestricted Boltzmann Machine(RBM)を単体で動かしてみる. Deep Learning自体については以下のページ等を参考に. MIRU2014 tutorial deeplearning Deep Learning技術の今 ディープラーニング チュートリアル(もしくは研究動向報告) Accord.NETのインストール NuGet経由でインストール可能.プロジェクトを右クリックして「NuGetパッケージの管
R と Python で XGBoost (eXtreme Gradient Boosting) を試してみたのでメモ。 バギング (Bootstrap aggregating; bagging) が弱学習器を独立的に学習していくのに対して, ブースティング (Boosting) は弱学習器の学習を逐次的に行います。 各ステップごとに前の弱学習器の結果を参考にしながら新たな弱学習器の重みを変化させ間違ったものをうまく識別できるように損失関数を最小化します。学習速度はバギングに比べ直列性のため遅くなる傾向があります。 バギングの代表例は ランダムフォレスト (Random Forest), ブースティングの代表例は AdaBoost [1] で, 重みを適応的 (adaptive) に更新していく手法 [2]です。OpenCVのオブジェクト検出で使われています。 オブジェクト検出では画像の局
最近xgboostがだいぶ流行っているわけですけど,これはGradient Boosting(勾配ブースティング)の高速なC++実装です.従来使われてたgbtより10倍高速らしいです.そんなxgboostを使うにあたって,はてどういう理屈で動いているものだろうと思っていろいろ文献を読んだのですが,日本語はおろか,英語文献でもそんなに資料がなかったので,ある程度概要を把握するのに結構時間を食いました. そんなわけで,今回は自分の理解の確認も兼ねて,勾配ブースティングについてざっくりと説明してみようかと思います.とはいえ生理解な部分も結構あるので,マサカリが飛んできそう感が大いにしています.腑に落ちる的な理解を優先しているため,数式は一切出てきません. 勾配ブースティングとは 複数の弱学習器を組み合わせるアンサンブル学習には,いくつかの手法がありますが,ブースティングは逐次的に弱学習器を構築し
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く