Neural network based methods have obtained great progress on a variety of natural language processing tasks. However, in most previous works, the models are learned based on single-task supervised objectives, which often suffer from insufficient training data. In this paper, we use the multi-task learning framework to jointly learn across multiple related tasks. Based on recurrent neural network,
In this paper we propose a new approach for learning local descriptors for matching image patches. It has recently been demonstrated that descriptors based on convolutional neural networks (CNN) can significantly improve the matching performance. Unfortunately their computational complexity is prohibitive for any practical application. We address this problem and propose a CNN based descriptor wit
We describe Swapout, a new stochastic training method, that outperforms ResNets of identical network structure yielding impressive results on CIFAR-10 and CIFAR-100. Swapout samples from a rich set of architectures including dropout, stochastic depth and residual architectures as special cases. When viewed as a regularization method swapout not only inhibits co-adaptation of units in a layer, simi
In this paper, we prove a conjecture published in 1989 and also partially address an open problem announced at the Conference on Learning Theory (COLT) 2015. With no unrealistic assumption, we first prove the following statements for the squared loss function of deep linear neural networks with any depth and any widths: 1) the function is non-convex and non-concave, 2) every local minimum is a glo
Drone movement and coordination are learned thru five independently-trained neural networks in four categories of operation. Specifically: avoid: The first two neural networks enable the drone to avoid obstacles. The turn RNN trains a drone moving at constant speed to avoid stationary and moving obstacles. Inputs are a set of five sonar sensor readings that emanate from the front of the drone. Out
The creation of practical deep learning data-products often requires parallelization across processors and computers to make deep learning feasible on large data sets, but bottlenecks in communication bandwidth make it difficult to attain good speedups through parallelism. Here we develop and test 8-bit approximation algorithms which make better use of the available bandwidth by compressing 32-bit
5月19日・20日、東京国際フォーラムにて「富士通フォーラム 2016」が開催された。展示場では、サーバー・ストレージなどのIT機器はほぼ姿を消し、クラウド・モバイル・ビッグデータ・IoT・AI関連技術で構成されるデジタルサービス基盤「MetaArc」をはじめ、社会に貢献するIT技術を中心に紹介していた。 テーマは「ものづくり」「社会インフラ」「ワークスタイル変革」「暮らし」「モビリティ」「医療・健康」「小売・物流」「金融サービス」「デジタルマーケティング」「セキュリティ」「食・農業」「スポーツ」だ。そんな多岐にわたる展示の中から、特に「Zinrai」と呼ばれる技術に注目してみたい。 同社グループが30年にわたって取り組んできたというAI(人工知能)技術だ。 「Zinrai」としてAI技術を体系化 Zinraiは、富士通研究所が中心となり1980年代から継続的に取り組んできたAIの実用化に
[速報] Google I/O 2016 基調講演レポート ~ スマートホームからAndroid N の新機能まで!Google が発信する10の発表 釘宮愼之介 こんにちは釘宮です。ただいまアメリカはマウンテンビューというところにいます。 Google が開催するクリエイティブ・カンファレンス『Google IO 2016』が日本時間5月19日に開催されました。このイベントは全世界から7000人以上が参加する3日間の大規模なイベントとなっています。初日は基調講演としてGoogleの新たなサービスやプロダクトに関する発表がされました。 今回は現地に渡った @kgmyshin と @wangxuan の二人が速報レポートとしてお伝えします。 Google I/O 2016 基調講演ダイジェスト Google Assistantという概念が生まれた Google Homeというスマートホームプ
こんにちは。データソリューショングループの李です。 データソリューショングループでは、ウェブリコメンドやターゲティングバナー設置のアルゴリズム実装、賃料の予測、投函チラシの配布エリア最適化など、こんにちは。データソリューショングループの李です。 データソリューショングループでは、ウェブリコメンドやターゲティングバナー設置のアルゴリズム実装、賃料の予測、投函チラシの配布エリア最適化など、 機械学習や統計モデリングをつかってサービスの磨きこみをしています。 今回は、SUUMOが持っている建築物の外観画像と内観画像を使って画像分析を行いました。Deep learningを用いた手法や、得られた結果について紹介します。 Deep Learningとは Computer Vision(CV)やAIなどの難易度が高い学習タスクに対して、深い構造*を使って処理する機械学習アルゴリズムセットです。 表
Terrain-Adaptive Locomotion Skills Using Deep Reinforcement Learning Transactions on Graphics (Proc. ACM SIGGRAPH 2016) (to appear) Xue Bin Peng Glen Berseth Michiel van de Panne University of British Columbia Reinforcement learning offers a promising methodology for developing skills for simulated characters, but typically requires working with sparse hand-crafted features. Building on re
This is a sequel to my previous post several months ago. Last time, I introduced a shoddy library named deeplearn-rs that allowed you to build and (manually) train neural networks that run on your GPU via OpenCL. I told you to “take a gander” at some atrocious code that constructed a rather useless XOR network and then didn’t bother to train it. For reasons unknown, I still got positive feedback.
前にDQNの再現の記事を書いてからほぼ1年が空いてしまいました.DQNの新しい論文が2月にNatureに載ったのは記憶に新しいですが,それから研究はさらに加速し,最近では自分の感覚としてはarxiv含めて平均すると1週間に1論文くらいのペースで深層強化学習の研究が発表されているのではないかと思います(ちゃんと計算してないので全然違ってたらすみません). これだけ論文が増えるとまとめのようなものが欲しくなるので,自分で作ることにしました. https://github.com/muupan/deep-reinforcement-learning-papers まだだいぶ不完全ですし,論文リストをきちんとした形で作るのははじめてなのでいろいろと迷う部分があるのですが,これから少しずつ充実させていく予定です.
Google Has Open Sourced SyntaxNet, Its AI for Understanding Language Step aside, Siri: Google's system for parsing the meaning of the sentences humans speak is now free for anyone to use, tweak, and improve. If you tell Siri to set an alarm for 5 am, she'll set an alarm for 5 am. But if you start asking her which prescription pain killer is least likely to upset your stomach, she's not really gonn
The Deep Scalable Sparse Tensor Network Engine (DSSTNE) library is now available under the Apache 2.0 license. Following the lead of other tech giants, Amazon has open sourced its deep learning software. The Deep Scalable Sparse Tensor Network Engine (DSSTNE) library is now available on GitHub under the Apache 2.0 license. Amazon explained on its FAQ page that DSSTNE, pronounced "Destiny," helps A
光センサがコースを検知したら左曲がりに進行、検知しなかったら右回りに進行、という味気ないやつ 青色 僕らの期待の新星DQN 入力:[[光センサの検知/不検知][前回とった行動]]を1セットに過去5個分 : 20次元 隠れ層:50ユニット x 2枚ほど <実は前の記事で隠れ層が1枚なのに2枚と勘違いしてました> 出力:左曲がり進行、直進、右曲がり進行 ご褒美:コースから5px以内 +1ポイント 10px以内 +0.5ポイント 壁際2px以内 -1ポイント そして、壁にぶつかったら張り付き続けてしまい学習時間に支障が出そうになるのでコース上に位置リセット。 現状の状況 いくら直近の過去のことを覚えていても自分の位置もわからない一つ目お化けじゃ迷子になる様子? せめて2つ以上センサーがあるようなライントレーサーにしたり、自分の位置を計算したりするなど何らかの手段で、自分とコースの位置関係を把握で
講演テーマ:「Convolutional Neural Network 入門講座」 講 演 :丸山不二夫 開催日時:2016年5月13日(金) 19:00 ~ 21:00 開場:18:30 、 受付:18:30 ~ 19:30 会 場 :TIS株式会社 東京本社 14F 研修室 (西新宿) 受講チケット申込: 5月6日(金)12:00~5月13日(金)10:00、このページから。 講演の狙い ニューラル・ネットワーク技術の中核としてのCNN ニューラル・ネットワークに関心を持っている人が増えています。僕は、こうした意欲的な人たちに、是非、CNN(Convolutional Neural Network) を理解してもらいたいと思っています。CNNは、現在のニューラル・ネットワークの中心的な技術で、かつ、もっとも大きな成果を上げている技術の一つだからです。あのGoogleのAlphaGoも
LightNet is a lightweight, versatile and purely Matlab-based deep learning framework. The idea underlying its design is to provide an easy-to-understand, easy-to-use and efficient computational platform for deep learning research. The implemented framework supports major deep learning architectures such as Multilayer Perceptron Networks (MLP), Convolutional Neural Networks (CNN) and Recurrent Neur
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く