Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
はじめに 前回の 記事 ではtensorflow/tensorflowのイメージを元にdocker上でGPUモードのtensorflowを動かせる環境を構築しました. 先日,caffeのdocker環境を構築する機会がありまして,nvidia-dockerというものを使いました.nvidia-dockerを使うとdocker上から簡単にcudaにアクセスすることができます.今回はnvidia-dockerを使ってtensorflowを動かしてみようと思います. 追記 - 現在はtensorflow公式のイメージもnvidia-dockerを使うようになっています. nvidia-dockerの導入 dockerを導入した環境において,以下で導入できます.
【 論文を読む 】Deep neural network に 外部知識DB を 参照する補正項 を 組み込むと、少量学習データ でも NLP意味計算精度 アップした件MachineLearningDeepLearningrdfNLP自然言語処理 【 関連記事 】 HirofumiYashima Qiita記事(2016/08/17)「【 概念・語彙 意味関係 知識ベース 参照型 word2vec( GloVe )】Joint representation 論文 の C++言語 公式実装コード を サンプルデータ で 動かして挙動確認してみた」 ニューラル言語モデル × オントロジー セマンティック知識DB参照モデル 融合のアプローチ が切り開く可能性 ( 文書コーパスから、各トークンの意味表現ベクトルを組成する neural network モデル のアルゴリズムに、外部 知識DBに記述さ
著者・監修の佐々木 拓郎さん、 高柳さん、および SB Creative さまより『Amazon Web Services クラウドネイティブ・アプリケーション開発技法 一番大切な知識と技術が身につく』をご献本いただきました。 昨今のモバイルアプリケーションには大抵の場合バックエンドも必要になりますが、たとえば僕はiOSアプリしかつくれません。そういう場合に、他のサーバーサイドエンジニアやインフラエンジニアと組む以外に、ちょっと前であれば Parse.com を利用してサクッと済ませてしまう、という選択肢もありましたが、来年にはサービス終了してしまうという悲しい事態になってしまった今、やはりモバイルアプリケーションのバックエンドのインフラとして真っ先に候補に挙がるのは AWSです。 ただそのAWS、LambdaとかMobile HubとかIoTとか色々ありすぎて、手を付け始める前からハード
今回はMNIST For ML Beginnersの解説です。何人かの方々がわかりやすい解説を既にされていますので、それらには言及されていない箇所に重きをおいて記述します。まず、TensorFlow.orgの当該ページで五月雨式に書かれているPythonのコードをまとめて書きますと下記です。 2018/01/30 追記: TensorFlow ver 1.5のSyntaxに対応してコードをアップデートしました。 python:MNIST_For_ML_Beginners.py # -*- coding: utf-8 -*- # Implementing the Regression import tensorflow as tf # このコードと同じ階層にinput_data.pyがあるとして import input_data # このコードと同じフォルダ階層にMNIST_dataという
google 先生のあれです、あれ これ、これ。サジェスト機能ってgoogle先生でいつもお世話になっている「これですかね?」と候補を示してくれるやつですわ。 ともかくすごいんです このサジェスト機能は、簡単そうに見えて仕組みを知ると意外と難しい仕組みなんだなと、まあ「普通」なことが複雑な仕組みで実装が面倒っていうのは、よくあることですねw。 要するに ajax を使用しリアルタイムに Solr に問いあわせし結果を描画する。っていうことです。 試してみる SolrのSuggesterを試してみる さんの紹介記事を参考にさせて頂きつつ手順を追って構築してみます。 まず、Apache Solr(JDK7, Solr 4.9.1, jetty 9)をインストールしてみたその1 前回記事とおりに環境を構築します(起動はしないこと)。 Solr の設定ファイルの配置 RONDHUIT社サイトの、"
2016年7月12日に,Chainer v1.11.0がリリースされた. Chainer Meetup 03や,Amazon Picking Challenge 2016の準備もあったろうに…なんて速度だ! (第2位,おめでとうございます https://www.preferred-networks.jp/ja/news/amazon-picking-challenge-2016_result ) この記事では,Chainerの新機能を美味しさと共に紹介していきたいと思う. トレーニング部分のコードが抽象化できるようになった Chainer Meetup 03では,「beam2dさんがゲロ吐きながらTrainコードを抽象化してくれている」という話だった. あれからおよそ2週間,Chainerのコードは変化を遂げた.変化を遂げることを許された. 先日とあるライブコーディングイベントにて私が書
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに この記事は、GoogleのMagentaプロジェクトのドキュメント "A Neural Algorithm of Artistic Style"(Cinjon Resnick)の翻訳です。 このドキュメントは、Gatys氏らによる同名の論文のレビュー記事であり、 Apache License, Version 2.0で配布されている成果物です。 Google Brainはディープラーニングにより、美術や音楽を生成するプロジェクトMagentaを立ち上げました。Magentaの目的の1つは、プロジェクトの研究を紹介することでもあ
>>> import tensorflow as tf >>> filename_queue = tf.train.string_input_producer(["/tensorflow_dev/csvTest.csv"]) >>> reader = tf.TextLineReader() >>> key, value = reader.read(filename_queue) >>> sess = tf.Session() >>> tf.train.start_queue_runners(sess) >>> sess.run(value) '0,1,2,3,4,5' >>> sess.run(key) '/tensorflow_dev/csvTest.csv:2' >>> sess.run(value) '0,1,2,3,4,5' >>> sess.run(value) '10,20,3
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 以下のことについて知りたい人向けの記事。 ①機械学習の利点と欠点、TensorFlowの利点と欠点 ②ニューラルネットワークの原理についての簡潔な説明 (オンライン書籍:http://nnadl-ja.github.io/nnadl_site_ja/index.html をまとめたもの) ③TensorFlowのチュートリアルに沿ってプログラム作成、その実行結果 以下、参考にしたサイト 1次関数の近似: https://www.tensorflow.org/versions/master/get_started/index.html h
下記コマンドでディープMNISTを実行します。初回は、MNISTデータをダウンロードする必要があります。 python 1_mnist_exp.py 基本チュートリアルをそのままコピーして作ったコードなので、実行環境に問題がなければ、チュートリアル同じ99.2%~99.3%の結果が得られます。下記は出力の例ですが、初期値がランダムなので毎回違う結果になります。 step 18000, training accuracy 1, test accuracy 0.9924 step 18100, training accuracy 1, test accuracy 0.9931 step 18200, training accuracy 1, test accuracy 0.992 step 18300, training accuracy 1, test accuracy 0.9925 ste
DeepLearningや深層学習など、CUDAやGPGPUなどの需要が 急激に高まっている。 一方でnVidiaやATI(AMD)は元々3Dグラフィックスをベースに CUDAやGPGPUを発展させてきた。 決して、DeepLearningなどの汎用演算を想定してCUDAやGPGPUが 設計されきたわけではない。 ラスタライザやShaderコアなどで実装されている浮動小数演算器を、 より汎用的な演算に解放しよう努力はしているが ラスタライズ処理で必須とされる回路規模のインパクトは今日現時点でも軽くはない。 では、スパコン業界ではどうだろうか? 時間レンタルでスパコンにTensorFlowを流したらどうだろうか? 昨今のスパコンは、米国製、中国製 問わず Intel®Xeon®やnVidiaなどのハイエンドCPU/GPUを コア・パーツとして力技で組み上げられていた。 しかし、その力技にも限
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この部分は需要が高いと思ったので、以下の自分の投稿から抜粋。 TensorFlowのチュートリアルを通して、人工知能の原理について学習する http://qiita.com/jintaka1989/items/3b70b5c5541620536fa2 以下のことについて知りたい人向けの記事。 ・各機械学習ライブラリの比較 ちなみに私はTensorFlowしか触っていないので、 この記事はブログなどを探索して、それをまとめたものである。 追記:実際にライブラリをいろいろ使ってみた人の感想はこちら https://speakerdeck.c
tl;dr Task: SSの本文から原作(10作品)を推定(教師あり学習。Classification) Feature Engineering: 本文内の単語 + TF-IDF Classifier: SVM, Logistic Regression, Random Forest Accuracy: 98.5% Jupyter Notebook(GitHub上) 背景 最近RailsやNode.jsを書くサーバエンジニアから、広告配信を最適化する機械学習エンジニアへと転身しつつありまして、日々Courseraのビデオを見たり論文を読んだりしています。 サーバエンジニア時代も当時のスキルを活かすために趣味でアプリを作ったりしていたので、今回は最近身につけた機械学習スキルを使って、趣味レベルで少し遊んでみることにしました。 といっても、すでにやり尽くされているMNIST(手書き文字の数字)
Travis CI には MeCab が入っていない Travis CI の box には最初 MeCab が入っていません。 こういう場合、普通なら .travis.yml の before_install を用いて以下のように MeCab をインストールするでしょう。 しかし、Travis の apt-get で入ってくる MeCab は古い (0.98) ので、例えば natto gem を使うようなアプリケーションが実行できません。 これでは Travis が赤くなって困るので、何とかして最新版 (2014/05/31 現在 0.996) を入れたいところです。 解決策: apt-get を使わず直にインストールする 最新の MeCab ソースコードを公式 Google Code から落としてきて、自家ビルド & インストールすれば良いのです。 基本的に公式インストールガイドの通り
オンライン・オフラインのリソースで勉強に使ってるもの一覧。 多少プログラミングしていて少々の知識があるといいかも。 人工知能・機械学習に必要な教材やTipsを載せていくブログはこちら 努力1mmブログ Coursera Machine Learning 言わずと知れた機械学習の動画。Andrew Ngさんが丁寧に教えてくれる。日本語字幕あり。 Coursera : Machine Learning Coursera Natural Language Processing Courseraの自然言語処理講座。英語。 Coursera : Natural Language Processing 言語処理100本ノック こちらも言わずと知れたリソースかも。自然言語処理をプログラミングするために必要なプログラミングテクニックとかが学べる。 自然言語処理100本ノック Udacity Design
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? コンピューターに問題を解かせるときに、それがどの程度の時間を消費するのかも大きな問題です。この観点から、問題はいくつかのパターンに区分されています。ただし、ややこしいです。 おことわり なお、分かりやすさを優先して、厳密でない説明となっている部分があります。たとえば、チューリング完全性を前提に、チューリング機械で計算するものを、通常のコンピューターで計算するものとしています。 P ある判定問題(yes/noで答えられる問題)があって、それを解くことのできる多項式時間アルゴリズム(問題の規模に対して、計算時間が規模の多項式で表現される上限
原文 DBMを用いた多形態データの学習(Multimodal Learning with Deep Boltzmann Machines) Nitish Srivastava (2012) 1. 要約/背景 画像と文字の混合データにDBMを適用したら、良好な結果を得られた。 テキストと画像では抽出データの型が異なるため、もともと併用が難しい テキスト→語数カウントベクトルであり、成分は離散的かつスパースである。 画像→ピクセルに分割し、各点の輝度をベクトルにまとめる。 SVMとLDA→混合データの認識に使われるが、教師データがない場合、特徴抽出ができない… 混合データによる学習イメージを下に示す。 画像をインプットした時に、意味(タグ登録してある)を選択識別する感じ。 2. 骨子の理論 分析過程の模式図を以下に示す。 ポイントは、画像の特徴とテキストの特徴をそれぞれ別のDBMで学習させるこ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く