You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert
The purpose of this blog post is to demonstrate how to install the Keras library for deep learning. The installation procedure will show how to install Keras: With GPU support, so you can leverage your GPU, CUDA Toolkit, cuDNN, etc., for faster network training. Without GPU support, so even if you do not have a GPU for training neural networks, you’ll still be able to follow along. Let me start by
Abstract Real-time simulation of fluid and smoke is a long standing problem in computer graphics, where state-of-the-art approaches require large compute resources, making real-time applications often impractical. In this work, we propose a data-driven approach that leverages the approximation power of deep-learning methods with the precision of standard fluid solvers to obtain both fast and highl
現在、機械学習や深層学習に関する本が非常にたくさん出ている。 どうせ出ているのなら、世界で一番良さそうな教科書的な本はないものかちょっと考えてみた。 今、世界の有名大学が、これらの授業を公開していて、誰でも好きなだけ勉強できる状況にある。 人工知能系の講義ビデオなどについては、別の機会に紹介する。 そんな情報の渦中をさまよっていたら、MIT Press の Deep Learning の本のサイトが見つかった。著者は、Ian Goodfellow(モントリオール大->Google->OpenAI), Yoshua Bengio(モントリオール大) and Aaron Courville(モントリオール大)ということで、この分野ではモントリオール大、トロント大などカナダが有力である。 この本のサイト、とてもショボイ感じなのだけれど、MIT Press がそんないい加減な本を出すとも思えないと
Kaiming He 何恺明 Research Scientist Facebook AI Research (FAIR), Menlo Park, CA I am a Research Scientist at Facebook AI Research (FAIR) as of 2016. Before that I was with Microsoft Research Asia (MSRA), which I joined in 2011 after receiving my PhD. My research interests are in computer vision and deep learning. I am a recipient of the PAMI Young Researcher Award in 2018, the Best Paper Award in CV
最近得居さんに雑なあだ名を付けられて、凹んでる舛岡です。 7/2(土)にChainer Meetup #03をドワンゴ様セミナールームで行いました! 今回も、アカデミックや企業で活躍されている方々にお話しして頂きました。 ドワンゴ様には前回に引き続き今回も会場をお借りしました。またニコ生の放送もお手伝い頂きました。この場を借りてお礼を申し上げます。 Chainer Meetupでの資料 Chainer, CuPy入門 @unnonounoさん [slideshare id=63664668&doc=20160702chainerintro-160702085422] Chainer Update v1.8.0 -> v1.10.0+ @beam2dさん [slideshare id=63661464&doc=20160702-chainer-update-160702050549] シンパ
Deep Learning, Tools and Methods workshop Martigny, Switzerland · July 2016 · 12 Talks The objective of this workshop is to present the current available software and hardware solutions for deep machine learning. We will focus on the two main industrial frameworks for the task: Facebook's Torch and Google's TensorFlow, and will discuss the general principles of deep learning, best practices, "un
Deep Supervised Learning of Representations Yoshua Bengio, University of Montreal, Canada Monday, July 4, 2016 · 2:01 p.m. · 59m 34s
Deep Generative Models Yoshua Bengio, University of Montreal, Canada Tuesday, July 5, 2016 · 1:59 p.m. · 01h 08m 04s
sequence to sequence learning, part-of-speech tagging, backpropagation-Through-Time Posted on March 5, 2016 Tweet Recurrent Neural Network¶Let us now move on to Recurrent Neural Network (RNN). Recurrent neural network is good in handling sequential data because they have a memory component which enables this network to remember past (few) information making it better for a model requiring varying
In recent years, deep artificial neural networks (including recurrent ones) have won numerous contests in pattern recognition and machine learning. This historical survey compactly summarises relevant work, much of it from the previous millennium. Shallow and deep learners are distinguished by the depth of their credit assignment paths, which are chains of possibly learnable, causal links between
This paper explores a simple and efficient baseline for text classification. Our experiments show that our fast text classifier fastText is often on par with deep learning classifiers in terms of accuracy, and many orders of magnitude faster for training and evaluation. We can train fastText on more than one billion words in less than ten minutes using a standard multicore~CPU, and classify half a
DeepLearningや深層学習など、CUDAやGPGPUなどの需要が 急激に高まっている。 一方でnVidiaやATI(AMD)は元々3Dグラフィックスをベースに CUDAやGPGPUを発展させてきた。 決して、DeepLearningなどの汎用演算を想定してCUDAやGPGPUが 設計されきたわけではない。 ラスタライザやShaderコアなどで実装されている浮動小数演算器を、 より汎用的な演算に解放しよう努力はしているが ラスタライズ処理で必須とされる回路規模のインパクトは今日現時点でも軽くはない。 では、スパコン業界ではどうだろうか? 時間レンタルでスパコンにTensorFlowを流したらどうだろうか? 昨今のスパコンは、米国製、中国製 問わず Intel®Xeon®やnVidiaなどのハイエンドCPU/GPUを コア・パーツとして力技で組み上げられていた。 しかし、その力技にも限
Aug 08, 2024 : Player emotion analysis: ML technologies of Leon casino Oct 11, 2017 : RNN made easy with MXNet R Jun 1, 2017 : Conditional Generative Adversarial Network with MXNet R package Jan 18, 2017 : MinPy: The NumPy Interface upon MXNet’s Backend Jan 7, 2017 : Bring TensorBoard to MXNet Dec 14, 2016 : GPU Accelerated XGBoost Nov 21, 2016 : Fusion and Runtime Compilation for NNVM and TinyFlo
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この部分は需要が高いと思ったので、以下の自分の投稿から抜粋。 TensorFlowのチュートリアルを通して、人工知能の原理について学習する http://qiita.com/jintaka1989/items/3b70b5c5541620536fa2 以下のことについて知りたい人向けの記事。 ・各機械学習ライブラリの比較 ちなみに私はTensorFlowしか触っていないので、 この記事はブログなどを探索して、それをまとめたものである。 追記:実際にライブラリをいろいろ使ってみた人の感想はこちら https://speakerdeck.c
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く