すっきりまとまっていていい感じ。 Deep Learning Galleryでは、最近話題の深層学習に関するプロジェクトをまとめているようだ。 ざっと眺めておくだけでも「へー、こういうことができるのか!」とわかっていいのでは。 もちろん詳細を見ることもできるので興味がある人はさらに踏み込んでいくことができる。 今年はどんなブレイクスルーが生まれるか楽しみですね。
すっきりまとまっていていい感じ。 Deep Learning Galleryでは、最近話題の深層学習に関するプロジェクトをまとめているようだ。 ざっと眺めておくだけでも「へー、こういうことができるのか!」とわかっていいのでは。 もちろん詳細を見ることもできるので興味がある人はさらに踏み込んでいくことができる。 今年はどんなブレイクスルーが生まれるか楽しみですね。
知っているライブラリを片っ端からpipで入れまくっちゃいます。pip万歳! 新しいライブラリ見つけたらどんどん追加します。 #pip本体のインストール $ sudo apt-get install python-pip #pipの使い方 なぜか僕の環境では$ sudo -H pip install pip ライブラリ名としないと上手く行かないんですが、 他のサイトなどでは$ pip install ライブラリ名と書いてあるので、以下はこっちで行きます。 僕と同じくsudo必要な人いないのかなぁ〜 #科学技術計算のライブラリ ライブラリ:numpy, scipy, pandas, matplotlib, scikit-image pip install numpy scipy pandas matplotlib scikit-image #機械学習 ライブラリ:chainer, tensor
Recognising detailed clothing characteristics (fine-grained attributes) in unconstrained images of people in-the-wild is a challenging task for computer vision, especially when there is only limited training data from the wild whilst most data available for model learning are captured in well-controlled environments using fashion models (well lit, no background clutter, frontal view, high-resoluti
( 事例調査 )トポロジー・ 微分幾何学・ 情報幾何学 の 高み から、(深層)ニューラル・ネットワークモデル の 情報処理過程 を 可視化し、学習速度 を 早める 視座 の 有効性 を 考える人工知能深層学習DeepLearning情報幾何学InformationGeometry (深層)ニューラル・ネットワークモデル を 改良して、 局所最適解への陥落 を 防ぎ、 なるべく短い学習回数で、全体最適解 に 到達する より良い (Deep) neural networkモデル を 見い出す 上 で、 【 情報幾何学(微分幾何学)の 見地 】 (1)誤差逆伝播(BP)法 の パラメータ更新式 を Riemann空間で組成し、 (2)フィッシャー行列 で 表現される Riemann計量 を 用いる 方法 及び 【 位相幾何学 の 見地 】 (1)(Deep) neural network モデ
年末年始はこの2冊を読んでいた。 『はじめての深層学習プログラミング』清水亮 『ゼロからつくるDeep Learning』斎藤康毅 結論から言うと、いま、人工知能やディープラーニングに興味があるひとは、2冊とも必読ではないかと思った。 アプローチが完全に対称的なので、両方読んだら、理論と雰囲気について、見通しがつくようになったのがとてもよかった。 『ゼロからつくるDeep Learning』は、ていねいに書かれたオーソドックスな入門書だ。人工知能開発によく使われる言語・Pythonの基本や数値計算ライブラリの使い方からはじまり、ニューラルネットワーク、ディープラーニング、畳み込みときて、最後に画像認識を解説する。随所に適切な例題やサンプルコードを交えて、理論と実践をバランスよく説明している。 対して、『はじめての深層学習プログラミング』は、まったく真逆のアプローチだ。なんと、理論の解説など
Deep Residual Learning MSRA @ ILSVRC & COCO 2015 competitions Kaiming He with Xiangyu Zhang, Shaoqing Ren, Jifeng Dai, & Jian Sun Microsoft Research Asia (MSRA) MSRA @ ILSVRC & COCO 2015 Competitions • 1st places in all five main tracks • ImageNet Classification: “Ultra-deep” (quote Yann) 152-layer nets • ImageNet Detection: 16% better than 2nd • ImageNet Localization: 27% better than 2nd • COCO D
The talks at the Deep Learning School on September 24/25, 2016 were amazing. I clipped out individual talks from the full live streams and provided links to each below in case that's useful for people who want to watch specific talks several times (like I do). Please check out the official website (http://www.bayareadlschool.org) and full live streams below. Having read, watched, and presented d
The talks at the Deep Learning School on September 24/25, 2016 were amazing. I clipped out individual talks from the full live streams and provided links to each below in case that's useful for people who want to watch specific talks several times (like I do). Please check out the official website (http://www.bayareadlschool.org) and full live streams below. Having read, watched, and presented d
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? (題を付けかえました。このページ中の画像は、それぞれの引用先のサイトの画像を表示しているものです。) 最近、Deep Learning関連では、アニメ産業自体にも影響しやすい技術が多数開発されているように思う。 まず、セル画の時代からある輪郭線をラフスケッチからトレースする作業が自動化されてしまうのではないか? ラフスケッチの自動線画化 web サービス■全層畳込みニューラルネットワークによるラフスケッチの自動線画化 次の2つの技術によれば、そのような線画画像に基づいて、色指定と着色の工程を自動化できてしまう可能性がないか? 初心者がc
この記事は Retty Advent Calendar 18日目です。 昨日は@YutaSakataのクリスマスプレゼントにはKotlin1.1が欲しいですでした。 さて、もうすぐクリスマスですが、皆さん一緒に過ごすお相手はおられますか? 私?私はもちろんいます。この子が。 独りだと酒でも飲みに行きたくなりますよね?ちょっと奮発していい店でしっとり飲むのもいいものです。 ですが、そんなつもりで入った店がリア充どもの巣窟だったらどうでしょう? せっかくの孤独のグルメタイムが台無しです。 そんな危険な店を事前に避けるため、Deep Learningの力をかりましょう。 用意するもの keras お店の口コミ kerasはtensorflowかtheanoをバックエンドにして動くDeep Learning用のライブラリです。複雑なことをしようとすると結構面倒ですが、大抵のモデルについてはかなり簡
The talks at the Deep Learning School on September 24/25, 2016 were amazing. I clipped out individual talks from the full live streams and provided links to each below in case that's useful for people who want to watch specific talks several times (like I do). Please check out the official website (http://www.bayareadlschool.org) and full live streams below. Having read, watched, and presented d
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この記事について DeepMind が Nature に投稿した論文 Hybrid computing using a neural network with dynamic external memory で使用されている "Differentiable Neural Computing (DNC)" について解説します。ロジックの説明がメインですが、Python - Chainer による実装例も紹介します。 Differentiable Neural Computing (DNC)とは sequential data を Neur
今回は「Let's Enjoy it !」のもな猫さんの2017年にやりたいことを寄稿していただきました。 皆さん、初めまして! もな猫(id:regurusu7777)と申します。 なんと今回は大人気ブログ「interact」の初寄稿ということで、お呼ばれしちゃいました。光栄ですね! いんたらくとさんとは違った文調の記事をお楽しみください。 お題:これからやりたいこと 勉学はプログラミング! 音楽はRADWIMPS! アニメはリゼロ! さいごに 編集者コメント 交流のきっかけ 寄稿のお題 お題:これからやりたいこと もうすぐ2016年が終わり、新たな年が始まります。そこで、この場をお借りして将来の話をしたいと思います。 皆さんには「これからやりたいこと」はありますか? 私には沢山あります。ありすぎて困るほどに。 勉学はプログラミング! 例えばプログラミング。 ゲーム制作のように、エンター
import numpy as np # x1,x2:入力 w1,w2:重み b:バイアス def perceptron(x1,x2,w1,w2,b): x = np.array([x1, x2]) w = np.array([w1, w2]) tmp = np.sum(w*x) + b return 0 if tmp <= 0 else 1 def AND(x1,x2): return perceptron(x1,x2,0.5,0.5,-0.7) def NAND(x1,x2): return perceptron(x1,x2,-0.5,-0.5,0.7) def OR(x1,x2): return perceptron(x1,x2,0.5,0.5,0.0) def XOR(x1,x2): # 多層パーセプトロン s1 = NAND(x1,x2) s2 = OR(x1,x2) y = A
Introduction When you are working, you have browsed information that is not relevant to your work, haven’t you? I feel awkward when my boss sneaks up behind me. While I can quickly switch screens, such behavior looks suspicious, and sometimes I don’t notice him approaching. To avoid this issue without raising suspicion, I created a system that automatically recognizes when he is approaching and hi
\[\newcommand{\E}{\mathbb{E}} \newcommand{\brac}[1]{\left[#1\right]} \newcommand{\paren}[1]{\left(#1\right)}\] Not too long ago, I came across this paper on unsupervised clustering with Gaussian Mixture VAEs. I was quite surprised, especially since I had worked on a very similar (maybe the same?) concept a few months back. It’s an interesting read, so I do recommend it. But the basic gist of it is
Update: This article is part of a series. Check out the full series: Part 1, Part 2, Part 3, Part 4, Part 5, Part 6, Part 7 and Part 8! You can also read this article in 普通话 , 한국어, Tiếng Việt, فارسی or Русский. Giant update: I’ve written a new book based on these articles! It not only expands and updates all my articles, but it has tons of brand new content and lots of hands-on coding projects. Ch
MetalでCNNの計算を行うためのAPI群、MPSCNNを用いた手書き数字認識のサンプルを読む、という記事の続きです。 iOS 10でMetal Performance Shadersフレームワークに、CNN(Convolutional Neural Network)演算機能群が追加されました。iOSデバイスのGPUで畳み込みニューラルネットワークの計算をさせることができる、という代物です。 前編ではネットワークの中身には踏み込まず、オーバービューとして利用するアプリケーション側の実装について見ていきました。 後編となる本記事ではいよいよMetal Performance Shadersを用いたCNN(Convolutional Neural Network / 畳み込みニューラルネットワーク)の実装について見ていきます。 なお、CNN自体の解説はここでは省略しますが、概念をざっくり理解
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く