ゲストはSUPINFの中丸(pottava)さん。AWS re:invent2016の現地で見聞きしたことを中心にお話しました。 ほか、Dockerコンテナのスケジューリングやサービス運用的な話、Deep Learningの初歩的質問とはじめ方など。 ※本編中のP2インスタンスの話、実際の並列数は約4万だったりと、スケールについて少々勘違いしたまま進行してたりします。関連リンクで正しい値をご確認ください。
Don't miss out on anything new and exciting in the world of deep learning. Sign up to get our weekly digest in your inbox. This open-source Deep Learning curriculum is meant to be a starting point for everyone interested in seriously studying the field. Plugging into the stream of research papers, tutorials and books about deep learning mid-stream it is easy to feel overwhelmed and without a clea
動機 前回「Ruby でニューラルネットワーク」では、MNIST のデータを使って、数字認識ができるニューラルネットワークを構築しました。元ネタは、名著「ゼロから作るDeep Learning ――Pythonで学ぶディープラーニングの理論と実装」です。 ただ、数字の認識を行えるとはいっても、訓練用のデータもテスト用のデータも MNIST から与えられたものにすぎません。自分で実際に手書きの数字を描いてみたらどうなるのだろう?という興味から、ウェブ上で、実際に数値を手書きして、そのまま数字認識が試せるようなものを作ってみました。 Digit Recognition ソースコード(GitHub) 手書き数値の右隣の "3: 99.6%" みたいなところは、たとえば「『3』である確率は 99.6%」ということを意味します。確率の一番高い数字を認識結果としています。 コード解説 neuralne
Deep Learningの Backpropagationはどのくらい高速か? #Backpropagation#Deep Learning#python 2016年 11月 30日 fuji だいぶ前に紹介した『ゼロからつくるDeep Learning』のコメントで、パラメータの勾配を求めるのに数値微分の方法が紹介され、ソースコードも載っている。 第4章ニューラルネットワークの学習 4.5 学習アルゴリズムの実装 (112ページ〜) とても簡単な2層のニューラルネットワークを作って試そうという訳である。 学習に使うデータは、手書き数字のデータとして有名なMNISTデータセットを利用する。 以下が、今回試してみようという関数 train_neuralnet.py の一部である。 for i in range(iters_num): batch_mask = np.random.choic
CNTKってご存知でしょうか?CNTKは、Microsoftが主導して開発しているオープンソースのDeep Learningライブラリです。正直なところ僕も最近使い始めたのですが、このCNTK、良い意味でMicrosoftらしくなく、なかなかイケているんじゃないかと思っています。今回は、まずCNTKの特徴をざっと紹介し、後半でコード例をJupyter Notebookを使って見ていきます。 チュートリアルはこちら "Microsoft"にこだわらない、オープンな開発方針 Open Source GitHub上で開発が進んでいます。社内版はありません。 公式wiki Python と C++ API Python API C++ API .Net APIは(まだ)ありません。Brainscriptもサポートされています。 LinuxとWindowsで利用可能 "Both Linux and
はじめに Liaroという会社をやってます、花田です。 最初は何か書いて動かそうと思ったのですが、言うて既存の有名所のモデル実装して試して終わりになってしまうので面白くないなと。 なんかそういうのは研究されてるようなもっと詳しい方々がやったほうが見てる方が勉強になるのでそちらはお任せして。仕事柄、普段から海外サービスも含めAIを謳っているものはチェックしているほうなのでそれらをまとめようかなと。 普段メモ書きで残していたものなので雑なのはご了承下さい。 気になった会社/サービスまとめ 画像認識系 Clarifai ニューヨーク:有名どころ。純粋なる画像認識エンジンを開発。動画をアップすると各シーンに写っているものをタグ付けしてくれる。動画像解析APIを提供。 https://www.clarifai.com/ http://wired.jp/2015/02/10/incredible-ai
ゼロから作るDeep Learning 僕はpythonも機械学習も全く知識が無かったのですが、ここ最近のニュースでも話題が多いですし、何か触りだけでも勉強できたらなと思っていたところにオライリーのゼロから作るDeep Learningがわかりやすいという話を聞いて買ってみました。 適度に数学的な部分も省かれてて、自分のような厳密な証明とかよりイメージを知りたいようなライトな感じの人にはとてもおもしろく読めました。また解説されていることがソースレベルで説明されているのが大変わかりやすかったです。 で、普段pythonとかをガリガリ書いている人はいいんだと思いますが、とりあえずやってみたいときに、pythonいれてnumpyいれて、matplotlibいれてやるのも(一回作ってしまえばいいですが)ちょっとメンドいですよね。 ならDockerで作ってしまおうと思ったのですが、この本ででくるma
(Chainer Advent Calender 2日目です。このポストは Chainer Blog の記事 “Research projects using Chainer” とほぼ同じ内容の日本語版です) 最近、アルゴリズムの実装や実験に Chainer を使用している研究プロジェクトが出てきています。そこで、arXivで公開されている論文で Chainer を使っているものを検索し、リンク付きで表にまとめました: Research projects using Chainer。 Chainer が使用されている分野の簡単な概要として、リストには自然言語処理の論文が比較的多く入っています。例えば、”Quasi-Recurrent Neural Networks (QRNNs)” は、James Bradbury と Stephen Merity らによって最近提案された系列データのモデ
2018-05-08 Yolo (Darknet) でcifar10の学習 2018-05-05 python 2018-05-01 OCRソフト Keras 2018-04-19 自然言語処理 2018-04-04 古文書 現在の作業メモ 2018-03-20 pyTorch 2018-03-19 Anaconda 2018-03-16 YOLO(Darknet)でCOCOの学習 2018-03-13 YOLO(Darknet)でVOCの学習 2018-03-10 Deep Learning関係 2018-03-03 abc8y 2018-03-02 xyz abc8x 2018-02-12 abc04 abc03 2018-02-11 abc02 2018-02-10 abc01 abc74 はじめるDeep learning TheanoでDeep Learning Theanoの使
競馬予想 Deep learning が流行っているので何かを題材に勉強してみようと思い、競馬予想をしてみたメモです。 投資競馬 Advent Calendar 2016 7日目の記事です。 環境構築 Install pyenv, python(annaconda) ↓を参考に Python 3.5.1 :: Anaconda 4.0.0 をインストール Install Chainer Chainer をインストールします。 データ収集 JRA-VAN というJRAの子会社が運営しているサービスがあります。有料ですが1ヶ月無料トライアルもあります。 今回は無料トライアルでデータを集めます。 JRA-VAN のデータを取り込むソフトは複数あるみたいですがTARGET frontier JVというものがデータを csv 出力できるようなのでこちらを使います。 ちなみにJRA-VAN対応のソフト
Peter Sadowski, Julian Collado, Daniel Whiteson, Pierre Baldi Proceedings of the NIPS 2014 Workshop on High-energy Physics and Machine Learning, PMLR 42:81-87, 2015. Particle colliders are the primary experimental instruments of high-energy physics. By creating conditions that have not occurred naturally since the Big Bang, collider experiments aim to probe the most fundamental properties of matte
Breakthrough technologies will continue to create new value and transform experiences for businesses and consumers alike. To start 2017 we look at 15 technology trends that will unlock opportunities for growth and enable organizations to provide more meaningful experiences to their customers, employees, and society. Superhero-Performance In Autonomous Vehicles By now we’ve all heard the news: 1.2
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 「鏡よ、鏡、鏡さん、世界で一番美しいのは誰?」 白雪姫で出てくるお妃さまの名文句である。「魔法の鏡」はこの世のあらゆることを知っていて、聞けばどんな質問にも答えてくれる。そんな「魔法の鏡」が現代のわれわれの世界では実現しつつある。 魔法の鏡を実現するカギとなるのが「深層学習」(脳の神経回路の特性を模した数学モデルである「ニューラルネットワーク」に対する機械学習の手法:Deep Learning)である。 犬や猫の識別ができる。囲碁に勝てる。さらにはさまざまなイラストや写真を自動的に生成することすらできる。これらはすべて、この世にあるデータから習得した経験に基づいて獲得した能力である。画像データに限定すれば、いわば人間の目の代わりをすると
This work tries to reproduce the results of A Neural Conversational Model (aka the Google chatbot). It uses a RNN (seq2seq model) for sentence predictions. It is done using python and TensorFlow. The loading corpus part of the program is inspired by the Torch neuralconvo from macournoyer. For now, DeepQA support the following dialog corpus: Cornell Movie Dialogs corpus (default). Already included
TL;DR Julia は速いよ。 Julia は行列演算簡単だよ。 Julia は Deep Learning 向きだよ。 Julia はそもそも書きやすいよはかどるよ! Julia 良いよ Julia! 初めに 【注意】この記事は1年以上前の記事です12。 この記事は、Julia Advent Calendar 2016 の3日目の記事です。 と同時に、機械学習 名古屋 第8回勉強会 の発表資料です。 またこの記事は、ゼロから作る Deep Learning(O'reilly, 2016/09)を参考に構築しています。 ↑ をJuliaに移植中 → DLScratch.jl 自己紹介 自己紹介 名前:後藤 俊介 所属:有限会社 来栖川電算 言語:Python, Julia, Ruby, Scala(勉強中), … twitter: @antimon2 Facebook: antimon
I am trying learn deep learning and specifically using convolutional neural networks. I'd like to apply a simple network on some audio data. Now, as far as I understand CNNs are often used for image and object recognition, and therefore when using audio people often use the spectrogram (specifically mel-spectrogram) instead of the signal in the time-domain. My question is, is it better to use an i
DeepLearning Advent Calendar,6日目の記事です。 Deep Learningフレームワークも世の中に随分と充実してきた昨今、いかがお過ごしでしょうか。今日はC++プログラマが簡単に導入できるDeep Learningフレームワーク、tiny-dnnを紹介します。 まとめ C++でDeep Learningやるなら、tiny-dnnが便利 Header-only&外部依存なしで簡単導入 Caffeからのインポートやシリアライズなどの各種機能にも対応 いろんなデバイス上で動かしたい人、既成のModel+αを素早くアプリケーション化したい人、C++でDeep Learningを理解したい人に最適 背景 Deep Learningフレームワークといえば、 Chainer TensorFlow Caffe あたりが有名ですね。他にも老舗のTheanoにTorch、Tens
DeepLearning Advent Calendar 2016 4 日目です。 3 日目は @tereka114 さんの「グレーの画像に色をつけるネットワークについて発表しました。」でした。 最近 AWS が公式にサポートを表明した深層学習フレームワーク MXNet に、彼らの記事や各種チュートリアルを通して入門してみようと思います。 MXNet とは 概要 MXNet はワシントン大学とカーネギーメロン大学によって、CNN と LSTM をサポートするために開発されはじめました。効率的で柔軟な深層学習フレームワークとなるよう設計されています。 特徴 AWS が MXNet を支援すると決めた理由に、以下の 3 つをあげています。 スケーラビリティ 豊富な対応言語 軽量かつ高い可搬性 その他にも MXNet には以下のような特徴があります。 命令的 / 宣言的プログラムの混合 豊富な深
去年:http://www.adventar.org/calendars/992 Deep Learningに関する話題ならなんでもオッケーです。 論文の紹介・実装、フレームワークを試してみた...etc.
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く