You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert
Kaiming He 何恺明 Research Scientist Facebook AI Research (FAIR), Menlo Park, CA I am a Research Scientist at Facebook AI Research (FAIR) as of 2016. Before that I was with Microsoft Research Asia (MSRA), which I joined in 2011 after receiving my PhD. My research interests are in computer vision and deep learning. I am a recipient of the PAMI Young Researcher Award in 2018, the Best Paper Award in CV
最近得居さんに雑なあだ名を付けられて、凹んでる舛岡です。 7/2(土)にChainer Meetup #03をドワンゴ様セミナールームで行いました! 今回も、アカデミックや企業で活躍されている方々にお話しして頂きました。 ドワンゴ様には前回に引き続き今回も会場をお借りしました。またニコ生の放送もお手伝い頂きました。この場を借りてお礼を申し上げます。 Chainer Meetupでの資料 Chainer, CuPy入門 @unnonounoさん [slideshare id=63664668&doc=20160702chainerintro-160702085422] Chainer Update v1.8.0 -> v1.10.0+ @beam2dさん [slideshare id=63661464&doc=20160702-chainer-update-160702050549] シンパ
Deep Learning, Tools and Methods workshop Martigny, Switzerland · July 2016 · 12 Talks The objective of this workshop is to present the current available software and hardware solutions for deep machine learning. We will focus on the two main industrial frameworks for the task: Facebook's Torch and Google's TensorFlow, and will discuss the general principles of deep learning, best practices, "un
Deep Supervised Learning of Representations Yoshua Bengio, University of Montreal, Canada Monday, July 4, 2016 · 2:01 p.m. · 59m 34s
Deep Generative Models Yoshua Bengio, University of Montreal, Canada Tuesday, July 5, 2016 · 1:59 p.m. · 01h 08m 04s
sequence to sequence learning, part-of-speech tagging, backpropagation-Through-Time Posted on March 5, 2016 Tweet Recurrent Neural Network¶Let us now move on to Recurrent Neural Network (RNN). Recurrent neural network is good in handling sequential data because they have a memory component which enables this network to remember past (few) information making it better for a model requiring varying
In recent years, deep artificial neural networks (including recurrent ones) have won numerous contests in pattern recognition and machine learning. This historical survey compactly summarises relevant work, much of it from the previous millennium. Shallow and deep learners are distinguished by the depth of their credit assignment paths, which are chains of possibly learnable, causal links between
This paper explores a simple and efficient baseline for text classification. Our experiments show that our fast text classifier fastText is often on par with deep learning classifiers in terms of accuracy, and many orders of magnitude faster for training and evaluation. We can train fastText on more than one billion words in less than ten minutes using a standard multicore~CPU, and classify half a
もうCPUに縛られたコンピューティングは飽きた!FPGAの新しい遊び方を考える会です。過去のfpgaxについてはこちらをどうぞ。 スケジュール 6:30pm: 開場 7pm: ドキュンなFPGA by 中原啓貴(@oboe7man)さん 強化学習(Q-learning)とディープニューラルネットワーク(Deep Neural Network)を組合せたDeep Q-learning Network, いわゆるDQNがそのネーミングセンスも相まって人工知能躍進に一役買っている状況です(日本だけ?)。今回の発表では, DQNの概要とFPGAにおけるディープニューラルネットワークの実装法について紹介を行い、高位合成ツールを使ってDQNをFPGAで動かしてみた結果をデモします。世界初公開!ドキュン on FPGAお楽しみに~ 7:50pm: FPGAによる津波シミュレーション――GPUを超える高性
DeepLearningや深層学習など、CUDAやGPGPUなどの需要が 急激に高まっている。 一方でnVidiaやATI(AMD)は元々3Dグラフィックスをベースに CUDAやGPGPUを発展させてきた。 決して、DeepLearningなどの汎用演算を想定してCUDAやGPGPUが 設計されきたわけではない。 ラスタライザやShaderコアなどで実装されている浮動小数演算器を、 より汎用的な演算に解放しよう努力はしているが ラスタライズ処理で必須とされる回路規模のインパクトは今日現時点でも軽くはない。 では、スパコン業界ではどうだろうか? 時間レンタルでスパコンにTensorFlowを流したらどうだろうか? 昨今のスパコンは、米国製、中国製 問わず Intel®Xeon®やnVidiaなどのハイエンドCPU/GPUを コア・パーツとして力技で組み上げられていた。 しかし、その力技にも限
Aug 08, 2024 : Player emotion analysis: ML technologies of Leon casino Oct 11, 2017 : RNN made easy with MXNet R Jun 1, 2017 : Conditional Generative Adversarial Network with MXNet R package Jan 18, 2017 : MinPy: The NumPy Interface upon MXNet’s Backend Jan 7, 2017 : Bring TensorBoard to MXNet Dec 14, 2016 : GPU Accelerated XGBoost Nov 21, 2016 : Fusion and Runtime Compilation for NNVM and TinyFlo
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この部分は需要が高いと思ったので、以下の自分の投稿から抜粋。 TensorFlowのチュートリアルを通して、人工知能の原理について学習する http://qiita.com/jintaka1989/items/3b70b5c5541620536fa2 以下のことについて知りたい人向けの記事。 ・各機械学習ライブラリの比較 ちなみに私はTensorFlowしか触っていないので、 この記事はブログなどを探索して、それをまとめたものである。 追記:実際にライブラリをいろいろ使ってみた人の感想はこちら https://speakerdeck.c
Convolutional Neural NetworksのトレンドについてCasualじゃない話をしてきました. 全脳アーキテクチャ若手の会カジュアルトーク 全脳アーキテクチャ若手の会カジュアルトーク というところでお話をしてきました. ちょっと層がわからなかったのですが,IT系のエンジニアの方が多かったみたいです. (学生は4人くらい…?しかもほぼ身内) 僕のスライドはSlide Shareの方にアップロードされています. しかも,映像もアップロードされていた… 発表後記 実際はConvolutional Neural Networks(CNN)系論文128本ノックにするつもりだったとはいえない空気でしたね… 個人的には画像生成やキャプション生成系の研究速度はとても速く進んでいると感じています. Visual Turing Test の話はもう少し掘り下げたかったですね. Deep M
Dueling Network Architectures for Deep Reinforcement Learning [arXiv:1511.06581] 概要 Dueling Network Architectures for Deep Reinforcement Learning を読んだ Double DQNにDueling Networkを組み込んだ DQN・Double DQNと比較した はじめに この論文は新しい強化学習のアルゴリズムを提案するのではなく、Q関数の内部構造に変更を加えたDueling Architectureを提案しています。 そのためQ関数を用いた強化学習全般に適用でき、導入する際のコードの変更も少なくて済みます。 Dueling Architecture まずQ関数を以下のように分解します。 \[\begin{align} Q(s,a)=\hat{V}
PFNの大野です。暑くなってきましたね。 PFI/PFNでは毎年8, 9月にインターンシップを実施しています。2ヶ月間と日本で行われるインターンシップの中では比較的長期間のプログラムですが、毎年多くの方にご参加いただいています。我々自身、インターンで来ていただく方から多くの事を勉強することができ、最も力を入れているイベントの1つです。今回は本社を大手町に移転してから初めてのインターンシップです。今年は例年以上の応募をいただき、過去最大規模でのインターンシップとなりそうです。 さて、インターンシップの選考では、応募者の方々にコーディング課題を解いていただいています。このコーディング課題は情報科学の基礎知識・プログラミング能力・問題解決能力を測ることを目的としており、毎年担当者が趣向を凝らした問題を作成しています。例年、どのような問題がコーディング課題として出題されるのか問い合わせをいただいて
NeuPy is a python library for prototyping and building neural networks. NeuPy uses Tensorflow as a computational backend for deep learning models. User Guide Install NeuPy Check the tutorials Learn more about NeuPy in the documentation Explore lots of different neural network algorithms. Read articles and learn more about Neural Networks.
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く