A Statistical View of Deep Learning (II): Auto-encoders and Free Energy With the success of discriminative modelling using deep feedforward neural networks (or using an alternative statistical lens, recursive generalised linear models) in numerous industrial applications, there is an increased drive to produce similar outcomes with unsupervised learning. In this post, I'd like to explore the conne
The value of qualitative research in a comparative user research study Edward Nick | December 7, 2022 at 4:02 am Many UX designers consider several value of qualitative research in a comparative user research study design directions ... Top 7 Data Security Threats to AI and ML Edward Nick | December 7, 2022 at 3:27 am Artificial intelligence (AI) and machine learning (ML) are making waves across i
The recent resurgence in Artificial Intelligence has been powered in no small part by a new trend in machine learning, known as “Deep Learning”. In this article, I’ll introduce you to the key concepts and algorithms behind Deep Learning, beginning with the simplest building block. authors are vetted experts in their fields and write on topics in which they have demonstrated experience. All of our
このところDeep Learningが相当流行っているようで、ほとんど至るところで話題になっているのを見ます。 Deep Learningは深層学習とも呼ばれ、ニューラルネットワークの層をこれまでより深くして機械学習を行う技法です(だそうです)。 画像認識コンテストで他の方法と比べて非常に高い精度を示しており、以前は人の手で行っていた特徴の抽出まで行えます。 以前であれば車を認識するには車はどのような特徴を持っているかを人がモデル化して入力していたわけですが、この特徴を入力画像と与えられたラベルからニューラルネットワークが捉えてくれます。詳しいことはDeep Learningで検索して出てくる記事やスライドを参照のこと。 Deep Learning自体は容易に実装可能なものではなさそうですが、多くの研究グループがDeep Learningを行うためのソフトウェアをオープンソースにしているた
カーネル密度推定(Kernel Density Estimation: KDE)とは Wikipediaあたりご参考願います。 状況によっては(データ数が多い、滑らかな分布関数に従っている、etc.)、ヒストグラムよりデータの概要を把握するのに役立ちます。 適当なデータを作る まずは必要なパッケージを読み込み、正規分布を重ねあわせた双峰性のデータセットを5個ほど作ります。 import numpy as np from scipy.stats import gaussian_kde import matplotlib.pyplot as plt N = 5 means = np.random.randn(N,2) * 10 + np.array([100, 200]) stdev = np.random.randn(N,2) * 10 + 30 count = np.int64(np.in
Pylearn2を使ってDeep Learningしてみました。 まともなデータを使ってテストはしていないし、まともなアウトプットが出ていないので、"ふ〜ん、Pylearn2ってこんな感じか"、っていうPylearn2の雰囲気をつかむ目的で読んで頂けますと助かります。 Pylearn2のインストール とりあえず公式のドキュメントを参考にしてください。 theanoのバージョンによってはエラーが出るため、その場合は下のstackoverflowを参考にして下さい。 Pylearn2 dev documentation psycopg2, pymc, theano and DYLD_FALLBACK_LIBRARY_PATH 参考資料 とりあえず、下のコンピュータビジョン最先端ガイド6を一読して、Deep Learning Tutorialsを読みつつtheanoで実装しながら動かすと、なんと
“I need to know a bit about your background,” says Geoffrey Hinton. “Did you get a science degree?” Hinton, a sinewy, dry-witted Englishman by way of Canada, is standing at a white board in Mountain View, California, on the campus of Google, the company he joined in 2013 as a Distinguished Researcher. Hinton is perhaps the world’s premier expert on neural network systems, an artificial intelligenc
Here are all my previous posts: Calculus on Computational Graphs: Backpropagation - August 31, 2015 Understanding LSTM Networks - August 27, 2015 Visualizing Representations: Deep Learning and Human Beings - January 16, 2015 Groups & Group Convolutions - December 8, 2014 Visualizing MNIST: An Exploration of Dimensionality Reduction - October 9, 2014 Understanding Convolutions - July 13, 2014 Conv
MNIST Handwritten digits Google House Numbers from street view CIFAR-10 and CIFAR-100 IMAGENET Tiny Images 80 Million tiny images6. Flickr Data 100 Million Yahoo dataset Berkeley Segmentation Dataset 500 UC Irvine Machine Learning Repository Flickr 8k Flickr 30k Microsoft COCO VQA Image QA AT&T Laboratories Cambridge face database AVHRR Pathfinder Air Freight - The Air Freight data set is a ray-tr
DeepLearning 0.1 Documentation の第六回は 制約付きボルツマンマシン (Restricted Boltzmann Machines / 以降 RBM) 。RBM は オートエンコーダとはまた別の事前学習法。かなり分量があるので、とりあえず元文書 前半のRBM の仕組みまで。 RBM を理解しにくいポイントは 2 つあるかなと思っていて、 この構造 (グラフィックモデル) であるメリットはあるのか? 学習 (Contrastive Divergence) で何をやってんのか? というとこではないかと。最初、自分は 2 がまったくわからなかった。2 は "とりあえずできそうな構造 / 方法でやってみたらなんかうまくいった" 感があって、理由がいまいちはっきりしないところがある。 目次 DeepLearning 0.1 について、対応する記事のリンクを記載。 第一回
Warning This project does not have any current developer. We will continue to review pull requests and merge them when appropriate, but do not expect new development unless someone decides to work on it. There are other machine learning frameworks built on top of Theano that could interest you, such as: Blocks, Keras and Lasagne. Don’t expect a clean road without bumps! If you find a bug please wr
PyData Tokyoは「Python+Dataを通じて、世界のPyDataエクスパートと繋がれるコミュニティーを作る」ことを目的として設立されました。その達成に向けた活動の一つとして、月1回のペースで勉強会を開催しています。勉強会はゲスト講師による講演+ディスカッションという構成です。2014年10月に開催された第1回勉強会「PyData Tokyo Meetup #1 - Deep Learning」では、非常に活発な議論が行われ、今後の発展が期待できる内容となりました。 本連載では、勉強会を含む活動を通じてPyData Tokyoが得た「Python+Data」の可能性やナレッジを、読者の方にお届けしていきます。機械学習や大規模データ解析など、幅広いテーマを取り扱っていく予定です。 データ解析に関心を持つ人たちのコミュニティ 「PyData Tokyo」の設立 こんにちは。PyDa
はじめに 近年Deep Learningへの注目が高まっていますが、多くの場合膨大なデータを必要とすること、学習にはGPU計算環境が必要であったりなど、独特の敷居の高さがあります。この記事では、この敷居を大きく下げるであろうCaffeについて紹介します。ただ、Caffeを紹介する記事はすでに良いものがたくさんあり、そもそも公式documentがかなり充実しているので、今回は躓きやすい部分や他の記事があまり触れていない部分を中心に紹介していきます。 Caffeって何? CaffeはDeep Learningのフレームワークの一つです。Deep Learningは一般に実装が難しいとされていますが、フレームワークを使えばかなり手軽に扱うことができます。 代表的なフレームワークには、 Caffe theano/Pylearn2 Cuda-convnet2 Torch7 などがあります。この中でも
Python Theano を使って Deep Learning の理論とアルゴリズムを学ぶ会、第三回。今回で教師あり学習の部分はひと段落。 目次 DeepLearning 0.1 について、対応する記事のリンクを記載。 第一回 MNIST データをロジスティック回帰で判別する 英 第二回 多層パーセプトロン 英 第三回 畳み込みニューラルネットワーク (今回) 英 第四回 Denoising オートエンコーダ 英 第五回 多層 Denoising オートエンコーダ 英 第六回の準備1 networkx でマルコフ確率場 / 確率伝搬法を実装する - 第六回の準備2 ホップフィールドネットワーク - 第六回 制約付きボルツマンマシン 英 Deep Belief Networks 英 Hybrid Monte-Carlo Sampling 英 Recurrent Neural Network
ずいぶん遅くなりましたが、ひとまず完成です。疑問点・翻訳ミスを始めとした指摘がありましたら、どしどしお願いします(14/12/18)。 1週間あるから大丈夫だろうとたかを括っていたら、あっという間に投稿日になってしまいました。本当はPylearn2を使ってRBMを学習させようと考えていたのですが、役に立つ内容を書くには時間が足りなさすぎるので、お茶を濁します。 今回の目標 Restricted Boltzmann Machine及びDeep Belief Networkの基本的な動作原理を知る "A Practical Guide to Training Redstricted Boltzmann Machine"(GE Hinton, 2012)で黒魔術(RBMの性能を引き出すコツ)を学ぶ 先日、以下のような発表をしました。今回の内容は以下のスライドの焼き直し・改良を含みます。参考にどう
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く