Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

はじめに 錯視(目の錯覚)はいろいろなところで見かけますよね. 例えば, エッシャーの『上昇と下降』(ペンローズの階段)はみなさんご存知かと思います. 今回は, この「無限に続く階段」を聴覚情報, すなわち音で再現してみます. この「無限に高く(低く)なっていく音」は1964年にベル研究所のRoger N. Shepardが考案した「1オクターブ上がっても最初と同じに聞こえる音」を発展させたもので, 「シェパードトーン(無限音階)」と呼ばれています. まずは完成した音を聞いてみてください. Audio illusion: Shepard tone (upward) - YouTube Audio illusion: Shepard tone (downward) - YouTube おもしろいですよね? ちなみに, シェパードトーンは映画や音楽でもときどき登場します. 特にChristop
$ python --version Python 3.6.5 :: Anaconda, Inc. $ pip list matplotlib 2.2.2 --- radar_chart.py.org +++ radar_chart.py @@ -39,6 +39,7 @@ theta = np.linspace(0, 2*np.pi, num_vars, endpoint=False) # rotate theta such that the first axis is at the top theta += np.pi/2 + theta = np.where(theta > np.pi * 2, theta - np.pi*2, theta) def draw_poly_patch(self): verts = unit_poly_verts(theta)
確率密度推定のモデル データ標本から確率密度関数を推定する方法は、一般的に2つに大別できる。 パラメトリックモデル: 母集団が正規分布やガンマ分布などであることを想定するモデル ノンパラメトリックモデル: 母集団の分布を想定しないモデル。 手法 ここでは、ノンパラメトリックの代表的な手法と言えるKDE(Kernel Density Estimation)を用いて、標本の確率密度関数を推定する。 KDEは、標本に対して複数のカーネルを適用し、それらのカーネルの重ね合わせでデータ標本の確率密度関数を推定する方法である。 KDEライブラリ Python環境では、KDEを実装している主要なライブラリはいくつかある。 scikit-learn scipy statsmodels 今回はscikit-learnを用いる。 1次元の場合 正規分布に従うランダムな値を生成する。 ここでは、2つの異なる正規
内容 デジタル画像としての大きさの単位であるピクセルと物理的な長さを示すインチを混乱しないようにしよう。 matplotlibで出力される画像の大きさは、ピクセル単位で表わすと、plt.rcParams["figure.dpi"] × plt.rcParams["figure.figsize"]で計算される。 一方matplotlib内のフォントサイズを表現する時にはポイントで指定する。ポイントとは、1/72インチなので物理的な長さの単位であり、ピクセルではない。 そのため、図中の相対的な大きさを考えてフォントサイズを指定したい時には、plt.rcParams["figure.figsize"]で指定する値との大小のみを考えて指定する必要がある。 環境 matplotlib 2.1.1 イントロ matplotlibにはいつも大変お世話になっております。データのグラフ化などすごく簡単に素早
TensorFlowの概要・特徴 概要: TensorFlowは、Googleが開発したオープンソースの機械学習フレームワークです。ディープラーニングモデルを構築、トレーニング、デプロイするためのツールを提供し、研究開発からプロダクション環境まで利用されています。 特徴: 多様なプラットフォーム対応: TensorFlowは、CPUやGPU、TPU(Tensor Processing Unit)など、さまざまなハードウェアプラットフォームでのトレーニングと推論をサポートしています。 豊富なAPI: 高レベルAPI(Keras)から低レベルAPIまで、開発者のニーズに合わせて選べる柔軟なAPIを提供しています。 大規模なコミュニティとエコシステム: TensorFlowは非常に活発なコミュニティを持ち、豊富なチュートリアル、ドキュメント、サポートが利用可能です。また、TensorFlow E
##データのダウンロードと準備 このチュートリアルに必要なデータは、Tomas Mikolov の Web ページの PTB データセットの data/ ディレクトリにあります: http://www.fit.vutbr.cz/~imikolov/rnnlm/simple-examples.tgz データセットはすでに前処理され、文末マーカーと、レアな単語のための特殊記号(<unk>)を含む、全部で10000語の異なる単語が含まれています。ニューラルネットワークでの処理を容易にするため、reader.py でそれらの単語すべてを、一意の整数の識別子に変換します。 ##モデル ###LSTM モデルの中心部は LSTM セルで構成されます。LSTM セルは、一度に1つの単語を処理し、文のありうる継続の確率を計算します。ネットワークのメモリ状態をゼロ・ベクトルで初期化し、各単語を読み込んで、メ
主にTensorFlow Mechanics 101を日本語化したもの。 一部公式チュートリアルとは違うコード載せている時もあるけど大意は同じ。 placeholder() inputとかoutputに用いる。 seesでrunするときに使うplaceholderをfeedする必要あり。 x = tf.placeholder(tf.float32, shape=(1024, 1024)) y = tf.matmul(x, x) with tf.Session() as sess: print(sess.run(y)) # ERROR: will fail because x was not fed. rand_array = np.random.rand(1024, 1024) print(sess.run(y, feed_dict={x: rand_array})) # Will suc
# -*- coding: utf-8 -*- import tensorflow as tf csv_name = 'path/to/filelist.csv' fname_queue = tf.train.string_input_producer([csv_name]) reader = tf.TextLineReader() key, val = reader.read(fname_queue) fname, label = tf.decode_csv(val, [["aa"], [1]]) jpeg_r = tf.read_file(fname) image = tf.image.decode_jpeg(jpeg_r, channels=3) sess = tf.Session() init = tf.initialize_all_variables() sess.run(ini
今回 前回と前々回はチュートリアルしかやって来なかったので、ここからは少し生産的な内容になればと思います…。 C++で学習させる 前回は、Computation Graphの定義と実行の仕方をまとめました。 今回は、そのComputation Graphを繰り返し実行して学習を進めることを考えます。 tensorflow/cc/tutorials/example_trainer.cc というexampleがあります。 このプログラムは、 A = [3 2; -1 0] x = rand(2, 1) として以下の計算を繰り返します。 x = y / y_norm y = A * x ではまずこの計算を行う、Computation Graphを作成する関数から確認しましょう。 GraphDef CreateGraphDef() { GraphDefBuilder b; using namesp
はじめに こんにちは、Hironsanです。 顔認識は画像中に映った人を検知し、人物の識別を行う技術です。顔認識の用途としては、監視カメラのシステムに組み込んでセキュリティ向上に役立てたり、ロボットに組み込んで家族の顔を認識させたりすることがあげられます。 今回はTensorFlowを使って畳み込みニューラルネットワークを構築し、既存のデータセットを使って顔認識器を作ってみます。 対象読者 畳み込みニューラルネットワーク(CNN)を知っている TensorFlowでどう書くかはわからない CNNの理論については以下を見ればわかると思います。 Convolutional Neural Networkとは何なのか 準備 TensorFlowのインストール TensorFlowのインストールは公式サイトが丁寧に解説しているのでそちらを参照してください。 TensorFlowのインストール データ
この要約は Building powerful image classification models using very little data | The Keras Blog ディープラーニングでの画像分類には、大量のデータが必要、とよく言われます。 また、ファインチューニングで画像分類を応用したい場合、データはあってもポイントがわからずに、正解率を上げるのに苦労することがあるかと思います。 このチュートリアルは、画像分類を本当に役立たせるためのポイントが解説されている貴重な資料なので、翻訳・要約してまとめました。 参考: こちらのブログでは翻訳を試みられています。 【ディープラーニング】少ないデータで効率よく学習させる方法:準備編 | ニートの言葉 はじめに 少ないデータしか利用できないケースはあるの? 高価な医療画像などでよくある話。 このチュートリアルでは、Dog vs. C
KerasでGridSearchCVをしてみた 機械学習のモデル精度はパラメータに左右されます。 モデル構築時に活性化関数や最適化アルゴリズム、中間層のユニット数等々、多数のパラメータを設定しますが、その時設定したパラメータが最適なものかは、トレーニングして実用してみるまでわかりません。 しかし機械学習の魅力は自動的に最適なモデルが生成されることです。 であれば、パラメータも自動的に最適化されても良いじゃないか!と思うわけです。 Pythonの機械学習で有名なscikit-learnにはGridsearchcvというモデル選択とパラメータチューニングまで可能なライブラリがあります。 実はKerasはscikit-learnをラッパーしており、GridsearchcvをKerasのモデル構築時に使用することができます。 というわけで、早速KerasのGridsearchcvしてみましょう。
はじめに 注: [改良版]KerasでVAT(Virtual Adversarial Training)を使ってMNISTをやってみる の方がマシな実装だと思うので参考にしてください。 遅まきながら、VAT(Virtual Adversarial Training)という学習方法を知ったのですが、Kerasでの実装が見つからなかったので実装してみました。 VATは簡単にいうと、「通常の入力X→出力Y」と「なるべく結果が異なるように入力Xに微小なノイズdを入力に加えた入力(X+d)→出力Y'」から「KL-Divergence(Y, Y')」を損失関数に余分に加えて学習をする手法です。 これだけだと何言ってるかわからないと思うので、詳しくは元の論文か、この方の解説をご覧になると良いかと思います。 VATは学習における位置づけとしては「正則化」に近いという話で、DropoutやNoiseを加える
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? kerasで事前学習できるモデルの理解を深めるたい。 #大規模な画像認識のための非常に奥行きのあるコンビネーションネットワーク(VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION) ##抜粋 本研究では、大規模な画像認識設定における畳み込みネットワークの深さがその精度に及ぼす影響を調べる。 私たちの主な貢献は、非常に小さい(3×3)畳み込みフィルタを備えたアーキテクチャを使用して、深度のネットワークを徹底的に評価することであり、深さを16-19ウェイトのレ
ECSでのリソースの割り当ては以下 c4.xlargeを使う場合の設定 c4.4xlargeを使う場合の設定 gunicornがkerasを積んだニューラルネットワークの計算を行うもの、nginx_gunicornはnginx (微妙なリソースの割り当て割合の差とか出ていますが...) 負荷をかけてみる Tsungを使って、予測するURLに負荷をかけてみました。 Tsungを積んだDockerで負荷テストを行う テスト内容は、180秒で2秒間に1回ユーザーが新規にアクセスをするといった感じ c4.xlarge * 4 c4.4xlarge * 1 結論を言うと、今回はスケールアップした方が負荷に対して強かった。 少しグラフの見方があっているかわからないので、正しい確証ないのですがcloudwatchなどと照らし合わせて考えると、c4.xlargeで待ちうける場合、ある時点からレスポンスの時
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く