
Deep Learning is the most popular and the fastest growing area in Computer Vision nowadays. Since OpenCV 3.1 there is DNN module in the library that implements forward pass (inferencing) with deep networks, pre-trained using some popular deep learning frameworks, such as Caffe. In OpenCV 3.3 the module has been promoted from opencv_contrib repository to the main repository (https://github.com/open
Is this known as a fact or from some analysis that the MNIST data-set is almost as if its sampled from some low (~10?) dimensional manifold? Is there a locally linear embedding to a low-dimensional space? Of course I don't expect the data will be exactly on some low dimensional manifold; there will be some noise.
3DCGで構築のリアルタイムに動くVR内デジタルヒューマン「MEETMIKE」がSIGGRAPH 2017に登場。約44万のポリゴン/3種のDeep learning使用 2017-08-03 米ロサンゼルスで開催するSIGGRAPH 2017 VR Villageにて、「MEETMIKE」と呼ぶUnreal Engineで制作されたリアルタイムで動作するVR内CGアバターが披露されました。 CGで制作されたアバターは、Nvidia GTX 1080 Ti、RAM 32GBの1台のパソコンから90fpsでリアルタイム・レンダリングされます。 VRヘッドセットには、HTC Viveが用いられており、顔の追跡にはVive Trackerを装備したフェイシャル・トラッキング用カメラリグが使用されます。 カメラリグを装着しているのは、シドニー大学のMike Seymour氏。彼を予めスキャンしリア
Deep Learning and Reinforcement Learning Summer School 2017 DLSS: June 26th - July 1st, 2017 & RLSS: July 3rd - 5th, 2017
ニューラルネットワークによる手書き数字認識について、各ノードへの元画像の影響を視覚化します。 アルゴリズム 【注】適当に思い付いたアルゴリズムです。どの程度正確に影響度が測れるかは未検証です。 比較の基準としてピクセルがすべて0のソースで各ノードの値を計算します。 評価対象とする画像を用意します。1ピクセルだけソースに入れて各ノードの値を計算して、すべて0のときと値を比較します。これをすべてのピクセルに対して行ったものを、ノードごとに特定のピクセルが与える影響とします。 これを画像化することで、視覚的に影響を見ることができます。 準備 『ゼロから作るDeep Learning』のサンプルを使います。 https://github.com/oreilly-japan/deep-learning-from-scratch 初回実行時にMNIST(手書き数字のデータ)をダウンロードするようになっ
仮想現実(Virtual Reality:VR)用のゴーグルを装着すると、顔の相当部分が隠されてしまい、対面コミュニケーション時に重要な役割を担う表情がほとんど見えない。これに対し、GoogleはVRゴーグルに装着者の表情を合成する複合現実(MR)技術を開発して、問題の解決を図った。 また、クラウドファンディングサービス「Kickstarter」で支援を募っていた取り組みでは、2つの赤外線カメラで目と目の周囲、口、あごの動きをとらえ、その情報にもとづいてアバターの表情を変えるVRゴーグル「Veeso」といったものも存在した。 今回は、Veesoと同様の機能をよりシンプルな方法で実現するGoogleの新たな人工知能(AI)技術「Eyemotion」を紹介しよう。 この技術は、VRゴーグルの内部に組み込んだ赤外線(IR)視線トラッキングカメラからのデータを利用し、AIが顔の表情を推測する。推測
TensorFire is a framework for running neural networks in the browser, accelerated by WebGL. Applications powered by TensorFire can utilize deep learning in almost any modern web browser with no setup or installation. TensorFire models run up to 100x faster than previous in-browser neural network libraries, at speeds comparable to highly-optimized native CPU code. TensorFire has two parts: a low-le
Machine-learning excels in many areas with well-defined goals. However, a clear goal is usually not available in art forms, such as photography. The success of a photograph is measured by its aesthetic value, a very subjective concept. This adds to the challenge for a machine learning approach. We introduce Creatism, a deep-learning system for artistic content creation. In our system, we break dow
We introduce an extremely computation-efficient CNN architecture named ShuffleNet, which is designed specially for mobile devices with very limited computing power (e.g., 10-150 MFLOPs). The new architecture utilizes two new operations, pointwise group convolution and channel shuffle, to greatly reduce computation cost while maintaining accuracy. Experiments on ImageNet classification and MS COCO
Rails 5.1 API with Vue.js frontend, part 4: Authentication and authorization Time to deal with authenticating users in our bookstore application. This is an onging series of articles. It’s highly recommended you start with part 0! What is token authentication? “And why do we even need it?” are two questions you might be asking yourself right now. You’re probably familiar how a simple authenticatio
どうもジャングルオーシャンのミケです。 最近IT界隈で流行っている人工知能のメモをしていく随時更新ページ Tensor Flow Google www.tensorflow.org jp.techcrunch.com Caffe BAIR Caffe | Deep Learning Framework jp.techcrunch.com Chainer Preferred Networks Chainer: A flexible framework for neural networks Alexa Amazon amazon Developer Theano Welcome — Theano 0.9.0 documentation Watson IBM www.ibm.com それじゃ今日はこの辺で! また来てね!
--Copyright (C) 2017 Kazuki Nakamae --Released under MIT License --license available in LICENSE file --- MulLayerクラス(オブジェクト) -- 乗算レイヤを実装 MulLayer={} MulLayer.new = function() local obj = {} --メンバ変数 obj.x = nil obj.y = nil -- @function self.forward() -- 順伝搬 -- @param x 入力1{Type:number} -- @param x 入力2{Type:number} -- @return 乗算結果{Type:number} obj.forward = function(self, x, y) self.x = x self.y = y
--Copyright (C) 2017 Kazuki Nakamae --Released under MIT License --license available in LICENSE file common = require './common' --[[***クラスの定義*******************************************************************]] --- simpleNetクラス(オブジェクト) -- 単純なニューラルネットワークを生成する -- @param input_size 入力層のニューロン数{Type:Tensor} -- @param hidden_size 隠れ層内のニューロン数{Type:Tensor} -- @param output_size 出力層のニューロン数{Type:Tensor} Tw
はじめに ディープラーニングフレームワークであるMXNetを、Amazon Deep Learning AMIとGPUインスタンスで試してみました。あらかじめ用意されているAMIを使うことで、インストール作業を全くすること無しに、すぐに動作させることができます。ディープラーニングに必須アイテムとも言えるGPUですが、スポットインスタンスを使えばお安く試すことができます。 Deep Learning AMI GPUを使ったディープラーニングをすぐに使えるようにするDeep Learning AMIが提供されています。以下のように、たくさんのディープラーニングフレームワークがあらかじめインストール済みとなっています。 MXNet Caffe Caffe2 TensorFlow Theano CNTK Torch Keras これらのフレームワークに加えて、GPUを使うためのCuda関連のドライ
Generative Adversarial Networks (GANs) have achieved remarkable results in the task of generating realistic natural images. In most successful applications, GAN models share two common aspects: solving a challenging saddle point optimization problem, interpreted as an adversarial game between a generator and a discriminator functions; and parameterizing the generator and the discriminator as deep
ディープラーニングに関する開発事例や最新技術動向を発信するコミュニティ「Deep Learning Lab」は、都内でコミュニティのキックオフイベントを実施した。開催に先立ち日本マイクロソフトの新井氏が登壇、コミュニティ発足の背景となったPreferred Networks社(以降、PFN)との戦略的協業に触れ、「人工知能や深層学習の実社会での活用を推進していく、この分野でもパブリッククラウドが活用できるようになってきた」と抱負を述べた。 PFNとマイクロソフトの提携が意味するもの イベント冒頭では、株式会社Preferred Networks 取締役 最高執行責任者 COOの長谷川 順一氏が登壇。PFNは、その前身である検索エンジンや自然言語処理を手がけるPreferred Infrastructureから2014年にスピンアウトした、IoTとAIで大規模なデータ解析を行うスタートアップ
Detecting and recognizing text in natural scene images is a challenging, yet not completely solved task. In re- cent years several new systems that try to solve at least one of the two sub-tasks (text detection and text recognition) have been proposed. In this paper we present STN-OCR, a step towards semi-supervised neural networks for scene text recognition, that can be optimized end-to-end. In c
In 2006, Fei-Fei Li started ruminating on an idea. Li, a newly-minted computer science professor at University of Illinois Urbana-Champaign, saw her colleagues across academia and the AI industry hammering away at the same concept: a better algorithm would make better decisions, regardless of the data. But she realized a limitation to this approach—the best algorithm wouldn’t work well if the data
Answer (1 of 22): There is a long long way to go from here. Deep Learning is not based on an elegant theory. It just involves a series of gradient calculations done over and over again until you reach a satisfactory point of convergence. It is simply because deep learning gives us a very low erro...
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く