Googleの担当するJeff Dean氏のトーク. 以前は50万行以上あったGoogle翻訳のソースコードが、Deep Learning導入によって約500行にまで削減でできたらしい. https://t.co/I9xstDsPCL

Unlike Light’s older phones, the Light III sports a larger OLED display and an NFC chip to make way for future payment tools, as well as a camera.
The choice of activation functions in deep networks has a significant effect on the training dynamics and task performance. Currently, the most successful and widely-used activation function is the Rectified Linear Unit (ReLU). Although various hand-designed alternatives to ReLU have been proposed, none have managed to replace it due to inconsistent gains. In this work, we propose to leverage auto
Crash course Preface Introduction Manipulate data the MXNet way with ndarray Linear algebra Intermediate linear algebra Probability and statistics Automatic differentiation with autograd Introduction to supervised learning Linear regression from scratch Linear regression with gluon Binary classification with logistic regression Multiclass logistic regression from scratch Multiclass logistic regres
This paper provides theoretical insights into why and how deep learning can generalize well, despite its large capacity, complexity, possible algorithmic instability, nonrobustness, and sharp minima, responding to an open question in the literature. We also discuss approaches to provide non-vacuous generalization guarantees for deep learning. Based on theoretical observations, we propose new open
Intelは米国時間10月17日、これまで「Lake Crest」という開発コード名で呼ばれていた新プロセッサ「Nervana Neural Network Processor(Nervana NNP)」を発表した。人工知能(AI)とディープラーニング(深層学習)を明確な目的に据え、開発に3年をかけたチップだ。Intelは、Nervana NNPの独特のアーキテクチャを説明するとともに、同プロセッサの市場投入準備を進める過程でFacebookと緊密に協力してきたことを明らかにした。Intelはさらに、製品ロードマップの始まりも示した。 IntelのArtificial Intelligence Products Groupでコーポレートバイスプレジデントを務めるNaveen Rao氏は、米ZDNetの取材に応じ、ディープラーニング用アプリケーションには各種のプラットフォームが提供されている
We study Bayesian hypernetworks: a framework for approximate Bayesian inference in neural networks. A Bayesian hypernetwork $\h$ is a neural network which learns to transform a simple noise distribution, $p(\vec\epsilon) = \N(\vec 0,\mat I)$, to a distribution $q(\pp) := q(h(\vec\epsilon))$ over the parameters $\pp$ of another neural network (the "primary network")\@. We train $q$ with variational
Measuring Neural Efficiency of Program Comprehension Janet Siegmund University of Passau Passau, Germany Norman Peitek Leibniz Institute for Neurobiology Magdeburg, Germany Chris Parnin NC State University Raleigh, North Carolina, USA Sven Apel University of Passau Passau, Germany Johannes Hofmeister University of Passau Passau, Germany Christian Kästner Carnegie Mellon University Pittsburgh, Penn
都内の事業会社で分析やWebマーケティングの仕事をしています。大学・大学院では経済学を通じて統計解析を行うなどしておりました。企業に勤めてからは、機械学習やテキストマイニング、クローリング技術などに関心を持っています。 Twitterアカウント Mr_Sakaue( SKUE ) GitHub 読書メーター ほしいものリスト Edwardで何ができるのか知らなかったので、忘備録として残しておきます。 目次 ・Edwardとは ・Edwardでできること ・参考スライド ・参考文献 Edwardとは ・LDAで有名なコロンビア大のBlei先生の研究室で、2016年より開発されている確率的プログラミング(( プログラミング言語の変数をモデルの構成要素として使うプログラミング))のPythonライブラリ。 ・積み木のように明快な形で確率的モデリングを行うことができる。(モデル→推論→評価 を一括
Attention mechanisms in neural networks, otherwise known as neural attention or just attention, have recently attracted a lot of attention (pun intended). In this post, I will try to find a common denominator for different mechanisms and use-cases and I will describe (and implement!) two mechanisms of soft visual attention. What is Attention? Informally, a neural attention mechanism equips a neura
The deep reinforcement learning community has made several independent improvements to the DQN algorithm. However, it is unclear which of these extensions are complementary and can be fruitfully combined. This paper examines six extensions to the DQN algorithm and empirically studies their combination. Our experiments show that the combination provides state-of-the-art performance on the Atari 260
What is Tensorflow Text Classification all About? Text Classification is the task of assigning the right label to a given piece of text. This text can either be a phrase, a sentence or even a paragraph. Our aim would be to take in some text as input and attach or assign a label to it. Since we will be using Tensor Flow Is deep learning library, we can call this the Tensorflow text classification s
The recent breakthroughs of deep reinforcement learning (DRL) technique in Alpha Go and playing Atari have set a good example in handling large state and actions spaces of complicated control problems. The DRL technique is comprised of (i) an offline deep neural network (DNN) construction phase, which derives the correlation between each state-action pair of the system and its value function, and
The image above shows the spectrogram of the audio before and after (when moving the mouse over) noise suppression. Here's RNNoise This demo presents the RNNoise project, showing how deep learning can be applied to noise suppression. The main idea is to combine classic signal processing with deep learning to create a real-time noise suppression algorithm that's small and fast. No expensive GPUs re
Jupyter のノートブックでプレゼンするための拡張機能、 RISE を試してみたので、環境構築や使い方についてまとめてみました。今回紹介する方法では、静的なHTMLに変換するのではなく 実行中のJupyterノートをプレゼン形式で見せる ことが可能で、 プレゼン表示のままコードの実行もできてしまう スゴイやつです。そのうち発表するときに使ってみたいなあと思いながら、自分用のメモを兼ねて一通り動かすところまで記事にしてみます。 RISEについて RISEは、実行中のJupter Notebookをスライド表示するための拡張機能になります。実行中の、というのがミソで、コードサンプルをスライドに載せるだけではなく、 スライド上のコードを書き換えたり、そのまま再実行する ことが可能になります。うたい文句にも "Live" という文字があるのですが、入力値をその場で書き換えて挙動の変化を見せるよ
Generating videos from text has proven to be a significant challenge for existing generative models. We tackle this problem by training a conditional generative model to extract both static and dynamic information from text. This is manifested in a hybrid framework, employing a Variational Autoencoder (VAE) and a Generative Adversarial Network (GAN). The static features, called "gist," are used to
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く