やること ゴリラの画像とチンパンジーの画像を分類してくれる分類器を作ろうと思います。 ゴリラの画像16枚、チンパンジーの画像16枚で試してみます。 環境 OS X El Capitan 10.11.6 今回はMacOSにDockerでCaffeを導入しようと思います。Ubuntuで導入した方が色々とよさそうな感じだったんですが、今回はDockerの使い方と軽くCaffeを触りたかっただけなのでMacOSにしました。 docker DockerをMacにインストールする (更新:2017/5/26) dockerが無事インストールできたら上のメニューバーに鯨のマークが出ます。可愛いですね。 docker version Client: Version: 17.09.1-ce API version: 1.32 Go version: go1.8.3 Git commit: 19e2cf6 B
Deep Learningフレームワークの最新のトレンドを調べたいと思い、現時点の情報をGitHubリポジトリから自動で取得するpythonスクリプトを作りました。 取得する情報 各リポジトリに対して、以下の情報を取得します。 Starの数 Forkの数 Issueの数 情報を取得するリポジトリ 以下のフレームワークのトレンドを取得します。 Tensorflow Chainer Caffe 実行環境 Ubuntu 16.04 LTS Python 3.6.0 jqコマンド(sudo apt-get install jq) スクリプト import subprocess def res_cmd(cmd): return subprocess.Popen( cmd, stdout = subprocess.PIPE, shell=True).communicate()[0] # targets
このIntel® Movidius™ Neural Compute Stickは、イメージ最高。。。1万円でRasPiが高性能なDLマシンになっちゃう♬ ということで、半年以上たったので安定しているはずということで試してみました。 というか、RasPi使っていろいろ物体検出とかやれそうだなということで期待してやってみました。 結果から書くと、出来ました! 残念ながら、ここにたどり着けたのは幸運だったかもしれません。 ということで、苦労話は無しで、マネしてもらえればほぼ出来ると思います。 ※参考はたくさんありますが、。。すべての記載は控えます メモリは4GB以上空きがないと厳しいと思います。 ※ウワンはSTRETCH完了時2GB残ってましたが、途中削除しつつ進めましたが最後はぎりぎりになりました やるべきこと (1)ほぼ公式のとおりやる Intel® Movidius™ NCS Quick
はじめに 今回は、今年(2018)の4月に発表された、物体検出モデルPeleeについて調べてみました。 Peleeについて Peleeの論文のタイトルは、「Pelee: A Real-Time Object Detection System on Mobile Devices」です。 タイトルの通り、モバイル端末でのリアルタイムでの物体検出に適したモデルらしいです。 つまり、処理速度を上げつつ、モデルの大きさ(パラメータ数)を抑えたモデルらしいです。 Peleeモデルのテクニック PeleeモデルはDenseNetベースのモデルで、これをSSDと組み合わせたようです。 [Densely Connected Convolutional Networks](https://arxiv.org/pdf/1608.06993v3.pdf) Peleeの主なテクニックとして、以下のようなものが上げら
Caffeを使ってみた Caffe2があるのですが、WindowsではGPUで現状(2018.6)は使うことが出来ないので、Caffeにしました。 WindowsのCaffeはビルドなどしても良いのですが、バイナリバージョンが公式で出ているので、動かすだけであれば簡単です。 以下の手順で動かしていきます。 学習画像、テスト画像、評価画像の3種類を用意する データベースを作る 平均値画像を作る 学習する 評価する はじめに はじめに,Windows版のCaffeを入手します。 かつては,ビルドなどをしなければならないのですが,とりあえずいろいろと改良しなければビルド版を入手したらOK GPU,CPUなど好きなものをダウンロードしてください。 プログラムはここ ダウンロード後は解凍して、フォルダの中に[tools]と[example]のフォルダを作成しておきましょう。 [tools]には、後に
NVIDIA主催のAI講習でAI開発の手ほどきを受けてウキウキの会社員のみなさんがいきなりぶち当たる壁「Linux機」の手配。おじさんはそんな辛い気持ちよくわかります。 そんな事情はわかりつつ、NVIDIA DIGITS 6.0をWindowsで使う! - 夜間飛行ではwindows版BVLC/CaffeでDIGITSを動かしたのですが、オリジナルがビルドできないのって気になります。 cmakeの扱いやCIツールのお勉強、WindowsとLinuxの差異へのさらなる習熟を目指してNVIDIAのNVCaffe 0.15をWindows機向けにbuildしましたのでご報告です。 とりあえずバイナリ欲しい人向け この辺にリンク貼っておいたんで… Prebuild binariesから持っていってくだされ。 caffe/README.md at caffe-0.15-win · Chachay/c
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この資料の背景 この資料は、子供にプログラミングを教えるのに、音が鳴る題材だとデバッグが容易であることとに基づいています。音楽活動をされているプログラマの方々、音楽活動をされている方々がプログラミングに取り組む際の意見交換に基づいています。 何人かは、プログラマに転身される過程におつきあいしています。 そんな方の紹介からまず。 https://www.youtube.com/watch?v=qOOymLivqhU https://www.youtube.com/watch?v=ZBo-gvFN2mI 公開算譜(open source)は
はじめに TensorFlow はなかなかとっつきにくい部分があるかと思います。書き方が独特なので、慣れるまでに時間がかかるかと思います。公式の MNIST は一通りやったけど、自分で考えたディープニューラルネットワーク (DNN) をどう書いたらいいかわからない……なんてこともあるのではないでしょうか。 この記事では、シンプルな問題を題材にして、 TensorFlow をコピペに頼らず、自分の書きたい DNN を 低レベル API を使ってどのように書くかを最小構成で説明していきます(今さら感はありますが。。)。ベースは公式ドキュメントの Low Level APIs のあたり です。 内容としては: TensorFlow の最小構成要素 TensorFlow で線形関数のフィッティング TensorFlow で DNN を実装 のようになっています。また、以下のような方を対象としており
背景 Deep Learning用に手元のcuda対応のグラボが指してあるLinuxPCにcudaを入れるべく、公式ドキュメントの通りにインストールしたらハマりました。 試した環境 ubuntu 14.04 GeForce GTX 560 CUDA 7.0 行った手順 nvidiaの環境の確認 lspci | grep -i nvidia ===================== 01:00.0 VGA compatible controller: NVIDIA Corporation GF114 [GeForce GTX 560] (rev a1) 01:00.1 Audio device: NVIDIA Corporation GF114 HDMI Audio Controller (rev a1) uname -m && cat /etc/*release ============
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? ※2018年06月23日追記 PyTorchを使用した最新版の内容を次の書籍にまとめました。 つくりながら学ぶ! 深層強化学習 ~PyTorchによる実践プログラミング~ 18年6月28日発売 これから強化学習を勉強したい人に向けて、「どんなアルゴリズムがあるのか」、「どの順番で勉強すれば良いのか」を示した強化学習アルゴリズムの「学習マップ」を作成しました。 さらに、各手法を実際にどう実装すれば良いのかを、簡単な例題を対象に実装しました。 本記事では、ひとつずつ解説します。 オレンジ枠の手法は、実装例を紹介します。 ※今回マップを作るに
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 今年の5月末に話題になった 画面のスクリーンショットからコードを生成するディープラーニングpix2code Gigazine GUIのスクリーンショットを読み込むと必要なコードを生成する仕組みでスタートアップが人工知能を活用 http://gigazine.net/news/20170530-pix2code/ AAPL Ch. ディープラーニングを利用し、デザイナーが作成したiOS/AndroidアプリのGUI画像から自動的にコードを作成する「Pix2Code」が話題。 https://applech2.com/archives/20
# -*- coding:utf-8 -*- # onlyzs1023@gmail.com 2016/11/21 import urllib.request from urllib.parse import quote import httplib2 import json import os API_KEY = "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" CUSTOM_SEARCH_ENGINE = "12345648954985648968:xxxxxxxxx" def getImageUrl(search_item, total_num): img_list = [] i = 0 while i < total_num: query_img = "https://www.googleapis.com/customsearch/v1?key=" + API_KEY
目次 イントロ ← 今ココ Scikit-learn・Keras モデルの性能指標・評価方法 データの前処理・データ拡張 早期終了(early stopping) 転移学習 ハイパーパラメータのチューニング モデル圧縮 応用 はじめに 大学3年生のとき、小林雅一『AIの衝撃 人工知能は人類の敵か』という本をなんのきなし読んだことがあります。その本の中で「最先端のAIを実装できるのは世界でも50人くらいの研究者・大学院生くらいだ」といった文章を読み、なんだかすごそうという動機で機械学習に触れ始めました。そのころちょうど、TensorFlow 0.0.5が公開されて騒がれていたことを覚えていますが、当時ディープラーニングとは何かすらまったく分かりませんでした。それから約2年の月日が経ちますが、TensorFlowをはじめとしたフレームワークの普及もあってか「最先端のAI」というものを研究し実装
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く