SF世界は確実に現実のものとなりつつあります。 こんにちは、すずきです。 先日、Google翻訳がニューラルネットワークの導入で進化した記事を書きました。 今まで質がイマイチだったGoogle翻訳の日英・英日翻訳能力を圧倒的に向上させた「ニューラルネットワーク」とは一体何なのでしょうか? その仕組みを分かりやすく説明していくと共に、どういった導入事例があるのか、そして、ニューラルネットワークによってどんな未来がもたらされるのか、お話して行きたいと思います。 結構衝撃的な内容もあるので、心してご覧ください。 【もくじ】 ニューラルネットワークとは? ニューラルネットワークの導入事例 Pepper ニコニコ動画 Siri ニューラルネットワークで今後どうなるのか 運転免許が無くなり、飲酒運転の罰則も廃止 ドラえもんの「翻訳コンニャク」が実現 AndroidのOS名が変更される 人間とコンピュー
Asynchronous Methods for Deep Reinforcement Learning asynchronous gradient descentを用いたreinforcement learningの学習手法を提案する。 experience replayは過去の観測を定期的に再利用して学習する事で時間依存性を回避し学習性能を向上可能で、よく使われてきた。 本論では代わりにマルチエージェントをマルチCPU上でそれぞれ走らせ、異なった環境の観測を同時に与える事で時間依存性を回避した学習を可能にする。 これによりさらなる性能向上が可能で、かつGPUに頼らずCPUのみで計算時間を減らす事が可能である。 Learning and Inference via Maximum Inner Product Search, ICML2016 log-linear modelの学習を行う際
こんにちは,学生エンジニアの迫佑樹(@yuki_99_s)です. 先日の大学の講義でニューラルネットワークを扱ったのですが,それがめちゃめちゃわかりやすかったんです. そこで,ニューラルネットワークの基礎の基礎を,高校生でもわかる簡単な数学だけを使って解説してみようと思います. 理解のしやすさを念頭に置いたので,ニューラルネットワーク・機械学習を専門に学ばれている方からすれば違和感を感じる表現もあるかもしれませんがご了承ください. ニューラルネットワークとは よく聞く,ニューラルネットワークなのですが,一体何なんでしょうか? これは,とてもざっくり説明すると,人間の脳の仕組みをコンピュータに適用したものです. 人間の脳には,ニューロンと呼ばれる神経細胞があります. このニューロンは,他のニューロンから信号を受け取ったり,信号を受け渡したりすることによって,情報を処理しています. つまり,こ
【 考察メモ 】深層学習モデル設計者 が、人間 脳の神経回路(コネクトーム)形成・変容メカニズム から 学ぶべきこと、学ぶべきでないことポエム人工知能DeepLearning深層学習MachineLearning ( 関連記事 ) HirofumiYashima Qiita記事(最終更新日: 2016/12/15)「(Deep) Neural Network モデル の 進化モデル は、 さらに人間の脳に近いモデルを志向すべきか、それとも、コンピュータ(チューリング・マシン)に範を取る方向 に 転換すべきか」 人間レベルの「知性」を発揮する深層学習モデルを実現させるためには、人間脳の神経回路(コネクトーム)メカニズム のどこに、どこまで範を取れば良いのだろうか。 いま、一般に知られている深層学習モデルは、多層ネットワークの結合重み を BP法(誤差伝播法)で学習させることはできる。 しかし
Recently, several models based on deep neural networks have achieved great success in terms of both reconstruction accuracy and computational performance for single image super-resolution. In these methods, the low resolution (LR) input image is upscaled to the high resolution (HR) space using a single filter, commonly bicubic interpolation, before reconstruction. This means that the super-resolut
Artificial intelligence will be at the core of most enterprise products that deal with large amounts of text, structured data and image data. Salesforce Einstein strives to bring AI to use cases in service, sales, marketing and others by embedding it directly into Salesforce products and enabling developers through our platform. AI will empower every company to deliver smarter, more personalized c
A machine-vision algorithm can tell a book’s genre by looking at its cover. This paves the way for AI systems to design the covers themselves. The idiom “never judge a book by its cover” warns against evaluating something purely by the way it looks. And yet book covers are designed to give readers an idea of the content, to make them want to pick up a book and read it. Good book covers are designe
Categorical Reparameterization with Gumbel-Softmax [arXiv:1611.01144] 概要 Categorical Reparameterization with Gumbel-Softmax を読んだ Auxiliary Deep Generative Modelsに組み込んで実験した はじめに Deep Learningなどでクラス分類を行う場合、カテゴリカル分布と呼ばれる分布を用いて属するクラスの確率を求めると思います。 たとえばMNISTであれば10個のクラスを用意し、10次元の出力ベクトルをsoftmax関数に通すことでカテゴリカル分布を作ります。 上の画像はクラス数が6個の場合の分布の例です。 この分布からサンプリングを行うとクラスを得ることができます。 Deep Learningではクラスを表す変数をスカラーではなくone
はじめに 最近流行りのDeep Learningに関する入門記事です。 Deep Learningは既にオープンソースのライブラリが豊富に出まわっており、今回はその中でも国産で定評があり、とある記事でGPU計算が現状で割と速いと書かれていたchainerを使用します。 ただ、Chainerの入門記事は多くあるのですが、そのほとんどが手書き文字を認識するmnistのサンプルを実行して終わっています。 たしかに、mnistのサンプルを眺めれば、Chainerの使い方はわかってくるのですが、なんとなくわかるのと自分で組めるのは違うなということで、今回はchainerを使ったDeep Learningが自分で組めるというところまでを目標にやっていきます。 開発環境 ・OS: Mac OS X EI Capitan (10.11.5) ・Python 2.7.12: Anaconda 4.1.1 (
Summary We present a method for performing hierarchical object detection in images guided by a deep reinforcement learning agent. The key idea is to focus on those parts of the image that contain richer information and zoom on them. We train an intelligent agent that, given an image window, is capable of deciding where to focus the attention among five different predefined region candidates (small
こんにちは! DMM.comラボ ビッグデータ部の中野です。 11月8日に開催されたCloudera World Tokyo 2016に ビッグデータ部の中野と領家で登壇してきました。 資料の公開も含めて簡単に報告させていただければと思います! セッションの概要 セッションタイトルはコチラ。 『Deep Learningを用いた類似画像レコメンドのSQL on Hadoopによる実現』 簡単に申し上げますと・・・ Deep Learningを用いたお手軽類似画像レコメンドのご紹介です! 画像の特徴抽出から類似度計算までをHiveなどのSQL on Hadoopで実現しました。 Deep Learningによる画像解析ではアニメや漫画などのイラスト画像から髪型や服装、表情などの特徴を抽出しています。 この特徴を用いて、商品のパッケージ画像による類似画像レコメンドの実現に関して説明しました。
Modern convolutional networks, incorporating rectifiers and max-pooling, are neither smooth nor convex; standard guarantees therefore do not apply. Nevertheless, methods from convex optimization such as gradient descent and Adam are widely used as building blocks for deep learning algorithms. This paper provides the first convergence guarantee applicable to modern convnets, which furthermore match
Room8 社長 鶴田です。 最近話題なのがAI、そこでよく出てくるのが10年後になくなる職業の話! まあ、間違いなくロボットに奪われる仕事は出てくると思いますが、10年後のビジネスチャンスがどこにあるかは想像もできないので、まずは今できることをコツコツやるとします。 今回は、Google翻訳にAIのディープラーニング技術であるニューラルネットワークが導入され凄かったのでご紹介します! ニューラルネットワークとは 専門家ではないので簡単に説明します。 ニューラルネットワークは、人間の脳の神経回路の仕組みをモデルに研究開発されてる技術で、人の脳のようにニューロンを増やし強化していく仕組みです。 人の脳と同じで使えば使うほどそこの機能が強くなります。 例えば、ピアノ 最初はぎこちなく、右手と左手を別々に動かすことが難しかったものが 日々トレーニングを積むことで、右手と左手を別々に動かしたり素早
Webアプリケーションにおける機械学習活用の基礎──HTML5 Conference 2016セッションレポート 中井悦司(グーグル株式会社) みなさん、こんにちは。Google Cloud Solutions Architectの中井です。 HTML5 Conference 2016では、「Webアプリケーションにおける機械学習活用の基礎」と題して、機械学習の基礎となる仕組み、そして、機械学習を利用したクライアントアプリケーションの例を紹介させていただきました。今回は、この発表の内容を振り返りたいと思います。 機械学習とディープラーニング、そして、AIの関係 機械学習そのものは古くから利用されている技術であり、過去のデータを元にして、「(まだ見たことのない)未来のデータにもあてはまる一般的なルール」を発見することがその役割となります。つまり、はじめて見るデータに対して、何らかの予測を立て
The Residual Network (ResNet), proposed in He et al. (2015), utilized shortcut connections to significantly reduce the difficulty of training, which resulted in great performance boosts in terms of both training and generalization error. It was empirically observed in He et al. (2015) that stacking more layers of residual blocks with shortcut 2 results in smaller training error, while it is not tr
微分可能な神経機械? Google DeepMindがNatureに投稿した論文「Hybrid computing using a neural network with dynamic external memory」が、なんだかヤバそうな香りがします。 公式の紹介記事「Differentiable neural computers」では、プラトンの記憶論から話が始まりますし、論文では脳の記憶を司る海馬に喩えていたりして、なかなか格調高いです。単なるニューラルネットワークの性能改善に留まらず、哲学や神経科学の観点からも理想の人工知能に一歩近づくことができたよ、これは新しいコンピュータの在り方の発明なのではないか、という気概が感じられます。 仕組みとしては流行りのAttentionという概念が入っていて、メモリを表す行列と、それを選択的に操作しながらベクトルを入出力するコントローラがありま
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く