Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

import matplotlib.pyplot as plt import numpy as np t = np.linspace(-np.pi, np.pi, 1000) x1 = np.sin(2*t) x2 = np.cos(2*t) fig, (axL, axR) = plt.subplots(ncols=2, figsize=(10,4)) axL.plot(t, x1, linewidth=2) axL.set_title('sin') axL.set_xlabel('t') axL.set_ylabel('x') axL.set_xlim(-np.pi, np.pi) axL.grid(True) axR.plot(t, x2, linewidth=2) axR.set_title('cos') axR.set_xlabel('t') axR.set_ylabel('x')
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? INTRODUCTION 今更ながらこちらのkaggleのコンペの上位者のアプローチを紹介します。 TensorFlow Speech Recognition Challenge tensorflowの名を冠していることから予想できるように、 google brainがorganizerです。 自分も一応は参加しておりました・・・。 長いので前編・後編に分けてポストいたします。 今回はコンペそのものと、アプローチの要素のうちタスク設計と特徴量について触れます。 このコンペについて コンペのタスクの内容 音声認識の中でも、いわゆる"key
新しい Deep Learning Base AMI 使ってみた。簡単だった。 https://aws.amazon.com/jp/blogs/news/new-aws-deep-learning-amis-for-machine-learning-practitioners/ 新しい Deep Learning Base AMI Base AMI にはディープラーニング用の基盤となる構成要素がプリインストールされています。これには Amazon Elastic Compute Cloud (EC2) インスタンスで Machine Learning を加速化しスケールするため、NVIDIA CUDA ライブラリ、GPU ドライバ、システムライブラリが含まれています。Base AMI は白紙の状態でカスタマイズしたディープラーニングセットアップをデプロイできるようなものとお考えください。
これはなに? DevFest Tokyo 2016での 発表で出したサンプルコードの全体を見たいという要望を頂いたので晒しておきます。 やりたかったこと 生のTensorFlowとTensorFlowの高レベルAPI版tf.contrib.learnとTensorFlowをバックエンドにしてDSLっぽくネットワークを記述できるKerasで、同じデータ、同じ手法で揃えてどう違うか、と横串で見れるものがなかったので横並びで見えるようにしたかった。 と、いうのも、それぞれのチュートリアルを見ていくと、微妙にやっていることが違うため、混乱してしまう、というか私は混乱してしまいました。 自分が調べた範囲では同じような条件で比較しているものがなかったので、混乱する方が少しでも減るように記録を残しておこうかなと思った次第です。とりあえずtf.contrib.learnのチュートリアルのものを基準に他のも
はじめに 本記事ではKerasとScikit-learnの簡単な使い方を紹介します。 イントロ Scikit-learn・Keras ← 今ココ! モデルの性能指標・評価方法 データの前処理・データ拡張 早期終了(early stopping)・正則化 転移学習 ハイパーパラメータのチューニング モデル圧縮 応用 Scikit-learnはPythonによる機械学習ではよく使われるライブラリで、サポートベクターマシンや決定木、ランダムフォレストなど有名な機械学習アルゴリズムをサポートしています。他のライブラリもScikit-learnを似せてインタフェースを作っていることが多いので、覚えておくとあとでつぶしが効くと思います。 インストール 基本的な使い方 機械学習アルゴリズムのオブジェクト(例:model)を生成する この段階で各種アルゴリズムのハイパーパラメータを設定する model.f
SegNetは、ケンブリッジ大学が開発した画素単位でのラベリング機能を実現する、 A Deep Convolutional Encoder-Decoder Architectureのこと keras2系+tensorflowで実装してみた とりあえず動かしたソースコードを貼っていく 解説はいずれやりたい・・・ 環境 ubuntu 17.04 python 3.6 keras 2.0.8 tensorflow 1.3.0 データの読み込み 画像のセグメンテーション用に公開しているデータを使う https://github.com/alexgkendall/SegNet-Tutorial リポジトリの、./CamVid内のデータを使う クラスは12あり、順番に [Sky, Building, Pole, Road_marking, Road, Pavement, Tree, SignSymbo
#目標 教師なしデータを使い、word2vecを学習させ、それをEmbedding層としてテキスト分類問題に応用する。 #知識 word2vec 単語をベクトル化する。今回はpythonライブラリであるgensimを使用して、実装する。このライブラリは以下の論文を参考にしている。 ・Efficient Estimation of Word Representations in Vector Space ・Distributed Representations of Words and Phrases and their Compositionality ##転移学習 転移学習とは学習済みのモデルを利用して、新たなモデルを構築する手法である。 今回の場合でいうと、次のようである。 学習済みのモデル→gensimのword2vecモデル 新たなモデル→文書分類モデル 転移学習を利用した文書分類
>>> from keras.preprocessing import sequence >>> import numpy as np >>> data = [np.array([[1,2,3],[4,5,6]]), ... np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12],[13,14,15]])] >>> data [array([[1, 2, 3], [4, 5, 6]]), array([[ 1, 2, 3], [ 4, 5, 6], [ 7, 8, 9], [10, 11, 12], [13, 14, 15]])] >>> #長さを4に揃える。 >>> data = sequence.pad_sequences(data, maxlen=4,padding="post", truncating="post") >>> data array(
この記事は BrainPad AdventCalendar 2017 23日目の記事です。 今回は深層強化学習を取り上げてみようと思います。 ビジネス課題と強化学習 BrainPadでは、データ分析に基づいて様々なビジネス課題に取り組んでいますが、時間的な制約や網羅性の制約などから、機械学習に必要となる最終的に得たい結果(目的変数)と打ち手となる要因(説明変数)の組みを事前にすべて揃えることが出来ない課題において検討されるのが強化学習のアプローチです。そこでは、実際に打ち手を局所的に試行しデータを集めながら、得たい結果との関係性(予測モデル/判断モデル)を動的に学習していきます。そのような意味で、教師あり学習と教師なし学習の中間に位置する手続きと解釈される枠組みで、より現実世界の時間の流れに沿った動的な課題に適用が検討されます。 具体的には、立上げた新規Webページでの広告の出し分けロジッ
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? VAEの実装報告は多く見られるのですが、Conditional VAEに関しての実装の記事はまだあまり見かけません。生成モデルから出てくるランダムな結果を楽しむフェイズから一歩踏み込み、狙ったものを作る必要が出てきた際には必須の技術かと思いますので、Tensorflowにてトライしてみました。 #概要 VAEの解説と実装は枚挙に暇がありませんので、ここでは割愛させていただきます。非常に詳しい説明が、http://nzw0301.github.io/notes/vae.pdf にまとめられておりますので、そちらを参照されるのが良いかと思い
はじめに OpenCVやTensorFlowの使い方がそこそこわかってきたので、何かわかりやすいものを作ってみようかなと思っていたら、カメラの画像を取り込んでリアルタイムにエフェクトをかけるサンプルがあったので、これを参考にして顔画像から誰かを学習して、リアルタイムに顔から人を識別して画面に表示することを試してみました。 OpenCVでWebカメラ/ビデオカメラの動画をリアルタイムに変換してみる 環境 MacBook Air (13-inch, Early 2015) macOS Sierra 10.12.6 Python 3.6.0 :: Anaconda 4.3.1 (x86_64) OpenCV 3.3.0-rc TensorFlow 1.1.0 環境構築の手順は以下を参照。 Macで深層学習の環境をさくっと作る手順 with TensorFlow and OpenCV Ubuntu
概要 Kerasで提供されているVGG16という大規模な画像で学習済みのモデルを活用して、ご注文はうさぎですか?(略称 ごちうさ)に登場する主要キャラクター5名の画像を分類するモデルを作成します。 この学習済みモデルを使用して少ないデータセットで、かつ比較的短時間で学習できる手法をFine-tuningといいます。 用語解説 Tensorflow ・・・ Googleが開発しオープンソースで公開している、機械学習に用いるためのソフトウェアライブラリ。 Keras ・・・ オープンソースのニューラルネットワークライブラリ。バックエンドでTensorflowも動かせる。 VGG16 ・・・ ImageNetと呼ばれる大規模な画像データセットを使って学習された16層からなるニューラルネットワークモデル。 ご注文はうさぎですか? ・・・ まんがタイムきららMAXで連載中の漫画。アニメ化もされた人気
昨今流行りの機械学習ですが、環境構築が難しい場面が多く感じられたので、備忘録兼一つの情報提供になればと思い記事にします。 環境 Windows10上のUbuntu 16.04.1 LTS(VirtualBoxを使用) ※環境構築に関しては他サイトなどを参考にしてください [1] [2] [3] 記事の目的 この記事はインストールされたばかりのゲストOSであるUbuntuで機械学習やディープラーニングをPyCharmで行えるようにするというものです。具体的にはTensorFlowやNumPyなどを使用できるようにする。 ※今回はCPUのみのTensorFlow環境をつくります。 ※間違いやほかにうまいやり方がありましたら指摘していただけると嬉しいです。 手順 Anaconda3のインストール(これにより基本のPython環境を整えます) Python3.5環境の構築 PyCharmのインスト
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 最近機械学習はじめたので、内部向けに勉強会を開催しました。 その際の資料を共有します。(寄せ集めです(汗)) 目的 機械学習の敷居を下げ、機械学習をはじめてもらう! kerasのソースベースなので、とりあえず動かせる(はず) 進め方 keras説明(2分) kerasインストール(2分) 実装&理論(30分) 質問時間(10分) 参考資料の共有(6分) keras説明(2分) TensorFlowやTheanoのラッパー。超簡単に機械学習ができる! 参考 Python製深層学習ライブラリ「Keras」の紹介 (with TensorFl
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く