You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.
「まぁ出来るだろうなぁ……」とは思ってましたが、めんどうくさがって作ってなかったんで作ってみました。 MNISTをCNNで学習したモデルを保存する kerasのexamplesに入ってるkeras_cnn.pyをちょっとだけ改造。 一番最後にmodel.save関数を追加して、学習したモデルをファイルとして保存します。 このコードを実行して学習が終わると"model_mnist_cnn.h5"というファイルが作成されます。 学習したモデルを読み込んでMNIST画像を認識させる Jupyter notebookで動くコードが下記のもの。 先ほどの学習で作成された"model_mnist_cnn.h5"を読み込んで、MNISTの数値画像を判定させている。 In [3]:の部分を実行しなおすと結果が変わります。 参考 次のサイトを参考にさせてもらいました! 感謝! github.com gith
Keras BERT [中文|English] Implementation of the BERT. Official pre-trained models could be loaded for feature extraction and prediction. Install pip install keras-bert Usage Load Official Pre-trained Models Tokenizer Train & Use Use Warmup Download Pretrained Checkpoints Extract Features External Links Kashgari is a Production-ready NLP Transfer learning framework for text-labeling and text-classifi
前回の投稿では、多くの皆様から「いいね」を頂きました。 この場を借りて御礼申し上げます。 前回は画像ファイルでしたが、音ファイルでもやってみたいと思います。 やりたいことは、音ファイルでどの技術が一番効果があるのか数値化します。 以下の流れでやっていきます。 (基本のCNN) → (3つの技術を追加していく) 基本のCNNに、3つの技術を追加しながら、分類精度の上昇幅を比較します。 コードはkerasで書いています。 画像ファイルと同じ結果になるのか? 乞うご期待! データのダウンロード 使うデータはESC-50です。 これは、人の音声や自然界の音を集めたデータで、50個のラベルが付与されています。 データの前処理 音の生データは波になっています。 import librosa import pandas as pd import os # define directories base_
勉強がてらディープラーニングで環境音・自然音の分類をやってみました。 データセットはESC-50を使用します。 コード全文。 やったこと 環境音・自然音をConvolutional neural networkで分類します。 対象は動物の鳴き声や雨の音、人間の咳、時計のアラーム、エンジン音のような声(言葉)のない音です。 これらの音を使って、以下の手順で分類器をつくりました。 音声データの前処理 データの入手 Augmentation メルスペクトログラム データの用意 CNNで分類 CNNの定義 最適化関数にAmsgradを採用 学習データにmixupを採用 音声データの前処理 ESC-50は環境音を50クラス、2,000ファイル集めたデータセットです。 クラスには以下があります。 50クラスで各クラスのデータが40ファイルずつ用意されており、合計2,000ファイルです。 1ファイルの長
Kerasで複数のラベル(出力)のあるモデルを訓練することを考えます。ここでの複数のラベルとは、あるラベルとそれに付随する情報が送られてきて、それを同時に損失関数で計算する例です。これを見ていきましょう。 問題設定 MNISTの分類で、ラベルが奇数のときだけ損失を評価し(categorical_crossentropy)、偶数のときは損失0として考える問題を想定します。 この実装方法以外にもやり方はあると思いますが、今回はいつもの(バッチサイズ, 10)の「どの数字を表すか」というラベルの横に、もう1列「奇数かどうかの」ラベルを作ります。次のようなイメージです。 今回作るラベルは(バッチサイズ, 11)のshapeになります。1~10列目はどの数字を表すかというOne-hotベクトル、11列目は奇数かどうかのベクトルになります。例えば、1という数字だった場合、2列目は1で1列目と3~10列
多クラス(Multi-class)分類は、複数のクラスに対して、各画像が1つのクラスに属する問題です。各画像が1つずつのクラスに属するのではなく、いくつかのクラスに属する場合を考えます。これを多ラベル(Multi-label)分類といいます。 多クラス分類の記事は多くあっても、多ラベル分類の記事はかなり少ないのでこれを見ていきます。 多クラス分類 vs 多ラベル分類 まずは多クラス分類から。これは単純で、クラスが複数(下の例の場合は4)あり、サンプルに対してどれかのクラス1つに対して割り当てるように最適化しなさいという問題。MNISTやCIFARなどはこれにあたります。 次は多ラベル問題ですが、クラスが複数あるというのは変わりないのですが、多クラス問題から「サンプルに対してクラスは1つ」という制約を取り除きます。つまり、サンプルに対してクラスを何個も割り当てて良いということになります。 今
概要 ResNet を Keras で実装する方法について、keras-resnet をベースに説明する。 概要 ResNet Notebook 実装 必要なモジュールを import する。 compose() について ResNet の畳み込み層 shortcut connection building block bottleneck building block residual blocks ResNet 使用方法 参考 ResNet ResNet の仕組みについては、以下の記事を参照されたい。 pynote.hatenablog.com Notebook 本記事のコードを使って、Fashon-MNIST を学習するサンプルコード。 resnet.py 及び resnet.ipynb を同じディレクトリに起き、resnet.ipynb を実行する。 github.com 実装 こ
In [NLP | Sequence to Sequence Networks| Part 1| Processing text data] we learnt how to process text data, In this part we will create the model which will take the data we processed and use it to train to translate English sentences to French. We will use an architecture called (seq2seq) or ( Encoder Decoder), It is appropriate in our case where the length of the input sequence ( English sentence
(2018/01/05 追記)ちょうどpython-pptxを調べていたので、pptx形式で図を保存できるようにし、タイトルも修正しました。 はじめに 論文やスライドで、畳み込みニューラルネットワークのアーキテクチャを良い感じに表示したいときがありますよね?スライドだとオリジナル論文の図の引用でも良いかなという気がしますが、論文の図としては使いたくありません。 ということでKerasのSequentialモデルのような記法でモデルを定義すると、そのアーキテクチャを良い感じに図示してくれるツールを作りました。言ってしまえばテキストを出力しているだけのツールなので依存ライブラリとかもありません。 https://github.com/yu4u/convnet-drawer ここまで実装するつもりはなかったので綺麗に設計できていませんが、バグ報告や追加機能要望welcomeです! 経緯 元々は、
無から始めるKerasについて Python も Keras もわからないけれど、近年のありえんニューラルネットワークブームに追いつくために勉強しようと思って作りました。 初心者で何もわからない状態から始めていますので、あたたかく見守っていただき、疑問や不審な点があればどしどしご指摘いただければとおもいます。 環境は Debian 8.8 + Python 3.4.2 + Keras 2.0.5 + TensorFlow 0.10.0 です。 もくじ はじめての Keras 活性化関数、目的関数、最適化手法とは Functional API で実装してみる 学習された重みから手計算で推定する MNIST と EarlyStopping、バッチサイズ、DropOut CNN で MNIST リカレントニューラルネットワーク Register as a new user and use Qii
こんにちは。 GMOアドマーケティング、機械学習入門者のT.Mです。 はじめに ゼロから作るDeep Learningを読み終え、 実際に何か作るにあたって何をしたらよいか調べていたところ ニューラルネットワークのライブラリであるKerasを知り触ってみました。 いきなりKerasのサンプルソースを見てもさっぱり分からなかったので、 ゼロから作るDeep Learningで学習した内容とKerasドキュメントを参照しながら 見ていきたいと思います。 Kerasについて Kerasについては公式ドキュメントを参照ください。 TensorFlow上で動く、ニューラルネットワークをより簡単に書けるようにした ライブラリという認識です。 サンプルソース Keras公式のサンプルソースから、 ゼロから作るDeep Learningでも5章までガッツリと書かれていたMLP(マルチレイヤーパーセプトロン
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く