並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 674件

新着順 人気順

Kerasの検索結果81 - 120 件 / 674件

  • Python: Keras/TensorFlow の学習を GPU で高速化する (Ubuntu 16.04 LTS) - CUBE SUGAR CONTAINER

    以前、このブログで Keras/TensorFlow の学習スピードを GPU を使って速くする記事を書いた。 ただし、このとき使った OS は Mac OS X (macOS Sierra) だった。 blog.amedama.jp とはいえ NVIDIA の dGPU を積んだ Mac がどれだけあるんだというと、正直なかなか無いと思う。 実際にやってみるとしたら Linux だよねということで、今回は Ubuntu 16.04 LTS を使う場合について書く。 インストールの手順については次の公式ドキュメントをベースに進める。 Installing TensorFlow on Ubuntu  |  TensorFlow 環境について 今回使った OS のバージョンなどは次の通り。 $ cat /etc/lsb-release DISTRIB_ID=Ubuntu DISTRIB_REL

      Python: Keras/TensorFlow の学習を GPU で高速化する (Ubuntu 16.04 LTS) - CUBE SUGAR CONTAINER
    • Amazon.co.jp: 詳解 ディープラーニング ~TensorFlow・Kerasによる時系列データ処理~: 巣籠悠輔: 本

        Amazon.co.jp: 詳解 ディープラーニング ~TensorFlow・Kerasによる時系列データ処理~: 巣籠悠輔: 本
      • Kerasのcallbackを試す(modelのsave,restore/TensorBoard書き出し/early stopping) - Qiita

        Kerasのcallbackを試す(modelのsave,restore/TensorBoard書き出し/early stopping)Python機械学習DeepLearningKerasTensorFlow はじめに KerasはTheano,TensorFlowベースの深層学習ラッパーライブラリです.大まかな使い方は以前記事を書いたので興味のある方はそちらをごらんください.Kerasにはいくつか便利なcallbackが用意されており,modelやparameterを書き出すタイミングやTensorBoardへのログを吐き出すタイミングを指定することができます(公式サイト).今回はそれらのcallbackを,実際に試しながらみていきます. 基本的な使い方 1. コールバックの作成 es_cb = keras.callbacks.EarlyStopping(monitor='val_lo

          Kerasのcallbackを試す(modelのsave,restore/TensorBoard書き出し/early stopping) - Qiita
        • Kerasで多変量LSTM - Qiita

          単変量の時系列はkerasでもよく見るのですが、株価や売上などを予測する時などには複数の要因が関わってきますので、今回は複数の時系列データを使って予測してみました。 ソースの紹介 コード 「MACHINE LEARNING MASTERY」で紹介されているコードを基本に、多変量対応にしました。 Time Series Prediction with LSTM Recurrent Neural Networks in Python with Keras jupyterで見れるコードの全貌はこちら https://github.com/tizuo/keras/blob/master/LSTM%20with%20multi%20variables.ipynb データ サンプルデータは以下から拝借しました。一番左のice_salesを予測します。 アイスクリームの売れ方 ice_sales yea

            Kerasで多変量LSTM - Qiita
          • keras(tensorflow)で花の画像から名前を特定 - Qiita

            Convolutional Neural Network (CNN)畳み込みニューラルネットで、 花の画像から名前を特定する実験をしてみる! はじめに 今回はdocker環境上にプログラムをおいて実施します。 1.環境準備 2.プログラム 3.実験 プログラムはGitに置いておきます。 環境準備 開発環境 Macbook pro 13 2016 dockerのインストール dockerは以下のサイトからバイナリで簡単にインストールできます。 Minicondaイメージから機械学習環境を構築 機械学習系のパッケージを詰め込んだ、コンパイル済みバイナリをインストールできる conda(Miniconda)での環境構築をします。 ① テンプレートのダウンロード

              keras(tensorflow)で花の画像から名前を特定 - Qiita
            • GitHub - transcranial/keras-js: Run Keras models in the browser, with GPU support using WebGL

              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                GitHub - transcranial/keras-js: Run Keras models in the browser, with GPU support using WebGL
              • RにTensorFlow + Kerasを実装した{keras}パッケージがやって来たので試してみた(追記2件あり) - 渋谷駅前で働くデータサイエンティストのブログ

                Python側でのTensorFlowの隆盛を他所に、R側では{tensorflow}も使いにくいし*1これはPythonistaに転生しなければならんのかなぁ。。。ということを思っていたら、出ました。あのKerasのRパッケージです。 インストール手順は普通にhttps://rstudio.github.io/keras/に書いてある通り、以下の通りRコンソールから打てばおしまいです。 devtools::install_github("rstudio/keras") library(keras) install_tensorflow() ということで、早速色々試してみようと思います。 3層NNをサクッと試してみる データセットはこちらのXORデータセット(10万サンプル)を使います。 > d <- read.csv('xor_complex_large.txt', header=T,

                  RにTensorFlow + Kerasを実装した{keras}パッケージがやって来たので試してみた(追記2件あり) - 渋谷駅前で働くデータサイエンティストのブログ
                • VAEからCVAE with keras - rarilureloの日記

                  はじめに 出てきた当初は画像分類タスクで猛威を振るった深層学習ですが, 最近はいろんな機械学習と組み合わせで応用されています. 強化学習を応用したAlphaGoでイ・セドルを打ち負かしたり, 画像認識と自然言語処理の組み合わせで画像のキャプションを生成したり, 生成モデルに応用して自然に近い画像を作るなど賑わいを見せています. 今回は画像生成手法のうちのDeepLearningを自然に生成モデルに拡張したと考えられるVAE(Variational Auto Encoder)から, その発展系であるCVAE(Conditional VAE)までを以下2つの論文をもとに自分の書いたkerasのコードとともに紹介したいと思います. Auto-Encoding Variational Bayes Semi-Supervised Learning with Deep Generative Model

                    VAEからCVAE with keras - rarilureloの日記
                  • Kerasの作者が書いたDeep Learning解説本:「Deep Learning with Python」を読んだ | 10001 ideas

                    タイトルの通り、広く使われているディープラーニングフレームワークであるKerasの作者François Chollet氏によるDeep Learningを解説した本「Deep Learning with Python」を読みました。今月末には日本語版が出るのでその前に読み終えることが出来て良かった。かなり分かりやすく、今まで何となく知っていた知識の整理に役だったのでオススメです。英語版を読んだので日本語版の翻訳が良いのか分からないですが、コードや図表が多いので日本語版でも理解は容易だと推測します。ちなみに英語版はUSのAmazonでかなりの高評価を受けています。 この本の特徴は、すべてのコードがKerasを用いて書かれており、コードが簡潔で理解しやすいという点だと思います。そして、本書を通じて(多分)一度も数式が登場していないので初学者にはとても読みやすいと思います(ただ、文章で説明するよ

                      Kerasの作者が書いたDeep Learning解説本:「Deep Learning with Python」を読んだ | 10001 ideas
                    • 対決!RTX 2080Ti SLI vs Google Colab TPU ~Keras編~ - Qiita

                      RTX 2080Tiを2枚買ったので、どれぐらいの性能が出るかColabのTPUと対決させてみました。さすがにRTX 2080Tiを2枚ならTPU相手に勝てると思っていましたが、意外な結果になりました。 スペック GPU側 GPU : RTX 2080Ti 11GB Manli製×2 SLI構成 CPU : Core i9-9900K メモリ : DDR4-2666 64GB CUDA : 10.0 cuDNN : 7.5.1 TensorFlow : 1.13.1 GPUだけで30万円以上はします。2019年5月現在、ディープラーニングの環境構成としては相当強い部類です。GPUは1個250Wなので、GPU2枚をフルに動かしただけで500W近い電力消費が加算されます。 GPUの場合は、「ELSA GPU Monitor」を使って、GPUのロードや消費電力をモニタリングします(5秒ごとCSV

                        対決!RTX 2080Ti SLI vs Google Colab TPU ~Keras編~ - Qiita
                      • Kerasによるデータ拡張 - 人工知能に関する断創録

                        今回は、画像認識の精度向上に有効な データ拡張(Data Augmentation) を実験してみた。データ拡張は、訓練データの画像に対して移動、回転、拡大・縮小など人工的な操作を加えることでデータ数を水増しするテクニック。画像の移動、回転、拡大・縮小に対してロバストになるため認識精度が向上するようだ。 音声認識でも訓練音声に人工的なノイズを上乗せしてデータを拡張するテクニックがあるらしいのでそれの画像版みたいなものだろう。 ソースコード test_datagen2.py test_datagen3.py ImageDataGeneratorの使い方 #3 - GithubのIssuesでTODOを管理し始めた ImageDataGenerator Kerasには画像データの拡張を簡単に行うImageDataGeneratorというクラスが用意されている。今回は、この使い方をまとめておきた

                          Kerasによるデータ拡張 - 人工知能に関する断創録
                        • Kerasの作者@fcholletさんのCVPR'17論文XceptionとGoogleのMobileNets論文を読んだ - Qiita

                          Kerasの作者@fcholletさんのCVPR'17論文XceptionとGoogleのMobileNets論文を読んだDeepLearningKeras はじめに 最初は、軽量なConvNetに興味があったのでGoogleから出ているMobileNets 1 を読んでいたのだが、その過程でCholletさんのXception論文 2 を(後者は今更)読んだので合わせてまとめる。Cholletさんの論文はなんとなくカジュアルな雰囲気がして面白い。 どちらの論文もpointwise convolutionとdepthwise (separable) convoutionを用いて精度を保ちながらCNNのパラメータ数を削減している。すなわち、精度とパラメータ数のトレードオフを改善していると言える。 Xceptionは、パラメータ削減により、同一のパラメータで大規模な画像認識の高精度化を実現し、

                            Kerasの作者@fcholletさんのCVPR'17論文XceptionとGoogleのMobileNets論文を読んだ - Qiita
                          • 【Day-18】時系列のディープラーニング、RNNのまとめとKeras実装 - プロクラシスト

                            データ分析ガチ勉強アドベントカレンダー 18日目。 Kerasの使い方を復習したところで、今回は時系列データを取り扱ってみようと思います。 時系列を取り扱うのにもディープラーニングは用いられていて、RNN(Recurrent Neural Net)が主流。 今回は、RNNについて書いた後、Kerasで実際にRNNを実装してみます。 今日の参考書はこの本! 詳解 ディープラーニング ~TensorFlow・Kerasによる時系列データ処理~ 作者:巣籠 悠輔発売日: 2017/05/30メディア: 単行本(ソフトカバー) RNNとは 通常のNeural Networkとの違い 誤差逆伝播法のアルゴリズム 勾配消失の工夫 : LSTMやGRU LSTM GRU 自然言語をにぎわすAttention Model Keras実装 データの変形、入力 学習モデル構築 学習と予測 結果 まとめ RNN

                              【Day-18】時系列のディープラーニング、RNNのまとめとKeras実装 - プロクラシスト
                            • 【強化学習】ついに人間を超えた!?Agent57を解説/実装してみた(Keras-RL) - Qiita

                              強化学習の評価でよく使われるAtariのゲームですが、ついに57全てのゲームで人間を超えた手法が現れたようです。 早速実装してみました。 ※ネット上の情報をかき集めて自分なりに実装しているので正確ではない点はご了承ください ※解釈違いの内容がある可能性もご注意ください(理解が追いついていない部分があります) コード全体 本記事で作成したコードは以下です。 github GoogleColaboratory(実行結果付き) ※GoogleColaboratoryはmultiprocessingの相性が悪いらしく1Actorのみの学習となります) ※MountainCarの学習をのせています 追記:自作フレームワークを作成しています。そちらの実装の方が正確なコードとなります。 目次 構成としては前半が技術解説で後半が実装の説明になります。 Agent57とは NGU(Never Give Up

                                【強化学習】ついに人間を超えた!?Agent57を解説/実装してみた(Keras-RL) - Qiita
                              • 過渡期にあるTensorFlowとKerasの関係を調べる - Qiita

                                ( 変数名コントロールの違い について追記しました.) はじめに TensorFlow Dev Summitなどで情報がリリースされていますが,TensorFlowとKerasの統合が進められています.Keras Blog - Introducing Keras 2 から引用します. Keras is best understood as an API specification, not as a specific codebase. In fact, going fowards there will be two separate implementations of the Keras spec: the internal TensorFlow one, available as tf.keras, written in pure TensorFlow and deeply comp

                                  過渡期にあるTensorFlowとKerasの関係を調べる - Qiita
                                • TensorFlow 2+Keras(tf.keras)入門

                                  機械学習の勉強はここから始めてみよう。ディープラーニングの基盤技術であるニューラルネットワーク(NN)を、知識ゼロの状態から概略を押さえつつ実装。さらにCNNやRNNも同様に学ぶ。これらの実装例を通して、TensorFlow 2とKerasにも習熟する連載。 第1回 初めてのニューラルネットワーク実装、まずは準備をしよう ― 仕組み理解×初実装(前編)(2019/09/19) ニューラルネットワークは難しくない ディープラーニングの大まかな流れ 1データ準備 ・Playgroundによる図解 ・Pythonコードでの実装例 2問題種別 ・Playgroundによる図解 ・Pythonコードでの実装例 3前処理 ・Playgroundによる図解 ・訓練用/精度検証用のデータ分割について ・ノイズについて ・Pythonコードでの実装例 第2回 ニューラルネットワーク最速入門 ― 仕組み理解×

                                    TensorFlow 2+Keras(tf.keras)入門
                                  • keras データセット作成、画像分類  - Qiita

                                    kerasでサンプルのmnistだけやって、そのまま放置していたけどちょっと頑張ってやってみよう!と思い立ったのでその記録。 mnistのサンプルだとデータセットも用意されているし、なにより一つのファイルで全部やってるのでよくわかんなかったので 個別に作ってみようと思います。(numpyの使い方を理解していないので、先人の知恵を拝借しまくりました) データセット作成1(画像の準備) 女優さんの顔を分類するのがやってて苦ではないので黒木華さん、多部未華子さん、忽那汐里さん、松岡茉優さん、福原遥さんの5人で やってみようかと思います。 一枚一枚集めるの大変なので、グーグルで画像検索した画面をプリントスクリーンしました。 そのファイルからopenCVで顔のみを検出しています。(顔じゃないファイルや違う人のファイルも複数出来てしまうのでそれの削除は手作業で) 画像ファイルが少ないので、またopen

                                      keras データセット作成、画像分類  - Qiita
                                    • Kerasのノウハウ覚え書き (Keras 1.x.x版) - Qiita

                                      注意:この記事はKeras 1.x.x向けです Keras 2.x.x向けはこちら。 とりあえずマニュアル 見落としがちですが、メニューの下の方にも結構色々重要(?)なものがあります。 コールバック EarlyStopping、各エポックでのモデル保存、学習率の調整、、etc Applications 事前学習済みのモデル 可視化 モデルを画像化してくれるやつ などなど。 読むと楽しいソース Examples だいぶ色々入ってます。VAEとかHRNNとかBidirectional LSTMとか。 事前学習済みのモデル(の実装) 昔はExamplesに入っていた気がするVGGとかResNetとか。 細かいノウハウ(?)やコピペ用コード片など モデルのsave/load モデルのsave/loadは、ググると重みとモデル(json or yaml)を別々に保存したりしている例がよく出てきますが

                                        Kerasのノウハウ覚え書き (Keras 1.x.x版) - Qiita
                                      • Kerasによる2クラスロジスティック回帰 - 人工知能に関する断創録

                                        まずはもっとも簡単な2クラスロジスティック回帰モデルをKerasで書いてみる。前にTheanoでやった(2015/5/19)のをKerasで書き換えただけ。ロジスティック回帰は、回帰とつくけど分類のアルゴリズムで、隠れ層がなく、活性化関数にシグモイド関数を使ったニューラルネットとしてモデル化できる。 データは、PRMLの4章のex2data1 を使う。1列目と2列目がデータで3列目がクラスラベル(0または1の2クラス)。 ソースコード:ex2data1.py データのロードと正規化 データを読み込むライブラリにはpandasなどもあるが、ここではnumpy.genfromtxt()を使う。Xがデータで二次元データのリスト、tがラベルで0または1のリスト。 # load training data data = np.genfromtxt(os.path.join('data', 'ex2d

                                          Kerasによる2クラスロジスティック回帰 - 人工知能に関する断創録
                                        • Keras + iOS11 CoreML + Vision Framework による、ももクロ顔識別アプリの開発 - Qiita

                                          Keras + iOS11 CoreML + Vision Framework による、ももクロ顔識別アプリの開発iOS機械学習KerascoreMLVisionFramework はじめに 一年前にTensorflowを使ってももクロ顔識別webアプリを開発しましたが、今回はWWDC2017で発表された iOS11の CoreML + Vision Framework を使ってももクロメンバーの顔画像をリアルタイムで識別するiOSアプリを作ってみました。 なお、本記事はiOSDC2017での発表の元となった記事です。 発表資料はこちら CoreML / Vision Frameworkとは? CoreMLはiOS11で導入された機械学習フレームワークです。Kerasなどメジャーな機械学習ライブラリを使ってデスクトップやクラウド上で訓練し、その学習結果をCoreML用に変換しiOSアプリに

                                            Keras + iOS11 CoreML + Vision Framework による、ももクロ顔識別アプリの開発 - Qiita
                                          • kerasとchainerの違い - HELLO CYBERNETICS

                                            KerasとChainer Keras Chainer 比較 Kerasの役割 Chainerの役割 Kerasでの実装 Chainerでの実装 使い分け Chainerがいいなあ Googleの強さ 使い分け KerasとChainer Keras KerasはTensorFlowあるいはTheanoをバックエンドとして、簡単にニューラルネットを記述することができます。もともとはTheano用でしたが、TensorFlow登場後に対応しました。開発者の中にはGoogleの方もいます。 s0sem0y.hatenablog.com Chainer 日本製の深層学習ライブラリ。 ニューラルネットワークに必要な計算を柔軟に設計できます。行列などの計算としてはNumpy(GPU用にCupy)をしようしており、純粋にPythonで実装されているライブラリです。 s0sem0y.hatenablog

                                              kerasとchainerの違い - HELLO CYBERNETICS
                                            • KerasのRNNでFizzBuzzを行う(+ Epochスケジューラの提案) - にほんごのれんしゅう

                                              KerasのRNNでFizzBuzzを行う(+ Epochスケジューラの提案) ディープラーニングをやるようになって半年程度経ちました ある程度ならば、文章や画像判別モデルならば、過去の自分の資産をうまく活用することと、外部からState of the Artな手法を導入することで、様々なネットワークを組むことが可能になってまいりました しかし、基礎の基礎であるはずの、Fizz Buzzをやるのを忘れていたのです やるしかありません 先行研究 Fizz Buzz in TensorFlow Fizz Buzz Keras 全結合のモデルでの、Fizz Buzzの評価のようです 提案 RNNでも、FizzBuzzは可能なのではないでしょうか 全結合層のモデルのみで、1000 ~ 5000程度のデータで学習させることが多いですが、20万件のデータセットで学習させることで、より大きな数字にも対応

                                                KerasのRNNでFizzBuzzを行う(+ Epochスケジューラの提案) - にほんごのれんしゅう
                                              • WindowsにKerasとTensorFlow(GPU)をインストールして機械学習の環境を作ろう!

                                                ここ最近は機械学習にはまっていて、前々から気になっていたTensorFlowを試してみたいと思い、実際にWindowsにインストールしてみたので、その導入手順を紹介したいと思います。手順自体は比較的簡単だと思ったのですが、実際にやってみるといくつか引っかかったので、その点なども含め記録として残しておきたいと思います。 まず、TensorFlow(テンソルフロー)について簡単に説明しておくと、ディープラーニングが行える機械学習ライブラリです。Googleが開発しオープンソースで公開しているもので、実際にGoogleの中でも使われている実績のあるライブラリであり、そのため数多くの開発者がこのTensorFlowを利用しています。 WindowsにKerasとTensorFlow(GPU)をインストール! WindowsにKeras+TensorFlow(GPU)の環境構築に必要なのは以下の3つ

                                                  WindowsにKerasとTensorFlow(GPU)をインストールして機械学習の環境を作ろう!
                                                • Theano: DeepLearning : 感情分析のための LSTM – RNN – Keras TensorFlow Theano

                                                  DeepLearning 0.1 文書: 感情分析のための LSTM (翻訳/要約) * DeepLearning 0.1 documentation: LSTM Networks for Sentiment Analysis の簡単な要約です。 概要 このチュートリアルは Long Short Term Memory (LSTM) を使用した Recurrent Neural Network (RNN) が Theano を使用してどのように実装できるかのサンプルを提供することを目的にしています。このチュートリアルでは、このモデルは、時に IMDB データセットとして知られる、 大規模な映画レビュー・データセット からの映画レビュー上の感情解析を遂行するために使用されます。 このタスクでは、映画レビューが与えられた時に、それがポジティブかネガティブかをモデルが予測することを試みます。これ

                                                  • 11月新刊情報『scikit-learn、Keras、TensorFlowによる実践機械学習 第2版』

                                                    11月新刊情報『scikit-learn、Keras、TensorFlowによる実践機械学習 第2版』 Aurelien Geron 著、下田 倫大 監訳、長尾 高弘 訳 2020年11月4日発売予定 832ページ ISBN978-4-87311-928-1 定価5,280円(税込) 本書はコードを動かしながら学び、機械学習が使えるようになることを目的とした書籍です。現実的な問題を出し、サンプルデータを示しながら、機械学習で問題を解決に導くまでの一連の手法を体系立てて解説します。 深層学習以外の機械学習にはscikit-learnを使い、機械学習プロジェクトの流れ、データからモデルを学習する方法、データの処理・クリーニングなどの基礎から、特徴量の選択や過学習、データの次元削減など応用までを学びます。深層学習にはTensorFlowとKerasを使い、ニューラルネットワークの構築と訓練、ニュ

                                                      11月新刊情報『scikit-learn、Keras、TensorFlowによる実践機械学習 第2版』
                                                    • TF2.0のKerasでPost-training quantization

                                                      以前、TF-2.0rc1でtf.kerasのMobileNet v2をfine-tuinginし、Post-training quantizationするノートブックを作った。 TF2.0がリリースされたので、このノートブックをもとにモデルを変換して、いろいろなTF-Lite model を比較してみようと思った。 TF2.0rc1でtf.kerasのMobileNet v2をfine-tuning、Post-training quantizationするnotebookを作ってみたので公開。 Google colabで実行可。 ・Weight quantization ・Float16 quantization ・Integer quantization ・Full integer quantization -> Edge TPU Modelhttps://t.co/18htw5SgFs

                                                        TF2.0のKerasでPost-training quantization
                                                      • Keras.js - Run Keras models in the browser

                                                        • 脳死で覚えるkeras入門 - Qiita

                                                          前書き 全てのプログラマーは写経から始まる。 by俺 この記事は機械学習入門用ではありません。良質な写経元を提供するためにあります。無駄のないコードと無駄のない説明を用意したつもりです。kerasコーディングを忘れかけた時に立ち返られる原点となれば幸いです。 実行環境 python (3.7.10) tensorflow (2.4.1) keras (2.4.3) 対象者 pythonを自分の環境で動かせる人 かつ keras初心者 ■ kerasとは python で書かれた高水準のニューラルネットワークライブラリ。 (keras公式) もっとわかりやすく言うと... ディープラーニングを自力で全部作るのは大変。 でも、kerasを使うと簡単だよ! ■ kerasコーディングの流れ データを用意する。 モデルを構築する。 モデルにデータを学習させる。 モデルを評価する。 ※モデルとは、デ

                                                            脳死で覚えるkeras入門 - Qiita
                                                          • kerasを使ってプリキュア認識プログラムを作る – 無糖ブログ

                                                            Fatal error: Call to undefined function wp_body_open() in /home/bkmts/bkmts.xsrv.jp/public_html/wp-content/themes/saka/header.php on line 22

                                                              kerasを使ってプリキュア認識プログラムを作る – 無糖ブログ
                                                            • Generative Adversarial Networks(GAN)を勉強して、kerasで手書き文字生成する - 緑茶思考ブログ

                                                              Generative Adversarial Nets(GAN)はニューラルネットワークの応用として、結構な人気がある。たとえばYann LeCun(現在はFacebookにいる)はGANについて以下のように述べている。 “Generative Adversarial Networks is the most interesting idea in the last ten years in machine learning.” GANを始めとする生成モデル系研究は、 これまで人間にしかできないと思われていたクリエイティブな仕事に対して、 機械学習が踏み込んでいく構図なためか、個人的にもワクワクする分野だ。 これまで分類問題を中心に実装してきてそろそろ飽きてきたため, 一番最初のGAN論文を頑張って理解して、 その内容をkerasで実装してみることにする. Generative Adver

                                                              • 【Python】QRNNでカオス時系列データ予測【Keras】 - Qiita

                                                                はじめに 以前,KerasやTensorFlowを用いたRNN(LSTM)による時系列データ予測の導入記事を書いたのですが,予測対象が単純なsin波だったため,リカレントなネットワークの効果を実感できずに終わってしまっていました.また,その記事を書いた後あたりにCNNを活用して計算処理の並列化を進め,LSTMよりも高速な学習を行うQRNNが発表されたため,今回はもう少し複雑な時系列情報に対してQRNNの効果を試しつつ,CNNやRNNとの効果の違いをみてみます. なお,備忘録としてざっくりとしたQRNNの解説を載せていますが,より詳しく,わかりやすい以下のような解説が多数あげられていますので,詳細等が気になる方はそちらをご覧ください. 参考文献 QRNNでLSTM(深層学習を用いた時系列分析)をスピードアップ(次世代システム研究室様) Quasi-Recurrent Neural Netwo

                                                                  【Python】QRNNでカオス時系列データ予測【Keras】 - Qiita
                                                                • 【Day-19】『PyTorch入門』 使い方&Tensorflow, Keras等との違いとは? - プロクラシスト

                                                                  データ分析ガチ勉強アドベントカレンダー 19日目。 2日間、Kerasに触れてみましたが、最近はPyTorchがディープラーニング系ライブラリでは良いという話も聞きます。 とりあえずTutorialを触りながら使ってみて、自分が疑問に思ったことをまとめていくスタイルにします。 また、同じく有名ライブラリであるKerasやTensorFlowについての比較もしたいと思っています(Define and RunかDefine by Runか) PyTorchとは PyTorch入門 変数の扱い方 Autograd チュートリアル:NeuralNetの構築 学習の手順 ライブラリ構成 torch.nn 値を投げる 損失関数 back propagation 重みのアップデート 主要フレームワークとの比較とDefine by Run Define and RunとDefine by Run 使いやす

                                                                    【Day-19】『PyTorch入門』 使い方&Tensorflow, Keras等との違いとは? - プロクラシスト
                                                                  • 青空文庫で作者っぽさ判定(KERAS + character-level cnn) - Qiita

                                                                    青空文庫のテキストを利用して、任意の日本語文の作者っぽさを判定するモデルを作ってみました。 https://github.com/shibuiwilliam/aozora_classification 動機 2017/02のTFUG #3に参加したのですが、Rettyの中の方がcharacter-level convolutional neural networkをしていて、これで火がつきました。 https://tfug-tokyo.connpass.com/event/49849/ 元ネタとなったQiitaの記事はこちらです。 とても勉強になりました。ありがとうございます。 http://qiita.com/bokeneko/items/c0f0ce60a998304400c8 なおcharacter-level cnnの論文はこちらです。 https://papers.nips.cc

                                                                      青空文庫で作者っぽさ判定(KERAS + character-level cnn) - Qiita
                                                                    • KerasでCIFAR-10の一般物体認識 - 人工知能に関する断創録

                                                                      今回は、畳み込みニューラルネットを使ってCIFAR-10(2015/10/14)の一般物体認識をやってみた。以前、Chainerでやった(2015/11/8)のをKerasで再実装した。 これもKerasの例題に含まれている。このスクリプトでは、データ拡張(Data Augmentation)も使っているがこれはまた別の回に取り上げよう。 ソースコード:cifar10.py CIFAR-10 CIFAR-10は32x32ピクセル(ちっさ!)のカラー画像のデータセット。クラスラベルはairplane, automobile, bird, cat, deer, dog, frog, horse, ship, truckの10種類で訓練用データ5万枚、テスト用データ1万枚から成る。 まずは描画してみよう。 import numpy as np import matplotlib.pyplot a

                                                                        KerasでCIFAR-10の一般物体認識 - 人工知能に関する断創録
                                                                      • 時系列予測を一次元畳み込みを使って解く with Keras - Qiita

                                                                        こんにちはみなさん。 本記事はKerasアドベントカレンダーの6日目となります。 他の方と比べてしょうもない記事ですが、がんばります。 時系列予測とか時系列解析をするのに、機械学習界隈で一般的な手法はRNN ( リカレントニューラルネットワーク ) だと思うのですが、これの理論て結構難しくて、特にLSTMなんて、私は未だによくわからないし、コードを見てもちんぷんかんぷんです。 そんなの知らなくてもとりあえず動けば問題ないっちゃ問題ないんですが、やっぱりある程度自分が動きを理解できているもののほうが、安心して使えるというものです。 というわけで、一次元畳み込みを使って時系列解析をするという話が出てきているので、kerasを使ってその使い心地を調べてみました。 畳み込み( Convolution ) を使ったニューラルネットワーク ( CNN ) は、今や機械学習の代名詞のようなものですが、C

                                                                          時系列予測を一次元畳み込みを使って解く with Keras - Qiita
                                                                        • Kerasでメモリに乗り切らないぐらいの大量データを学習するたった1つの方法 - WonderPlanet Developers’ Blog

                                                                          こんにちは。アドバンストテクノロジー部のR&Dチーム所属岩原です。 今回はKerasを使ってメモリに乗り切らないぐらいの大量データを学習させる方法について紹介したいと思います。 個人的にハマったポイントなので、同じように困ってる方々の力になれれば…と思ってます。 Kerasとは何ぞや、とか使い方云々はまた別途記事を書きたいと思います。 対象読者 Kerasを使ってある程度の学習は出来る人 Pythonがある程度読める人 Unix系OSでKerasを動かしている人 今回はモデルの構築などは省略しています。 確認環境 Python:3.6.1 Keras:2.0.8 tensorflow-gpu:1.3.0 (今回は特に関係ありません) 想定場面 それでは、具体的な場面を想定してみましょう。 クエストのログを使って学習したい。クリア or notのデータがcsvデータとして手元にある。 クレン

                                                                            Kerasでメモリに乗り切らないぐらいの大量データを学習するたった1つの方法 - WonderPlanet Developers’ Blog
                                                                          • Kerasを用いたディープラーニング(LSTM)による株価予測

                                                                            ご注意:本記事は、@IT/Deep Insider編集部(デジタルアドバンテージ社)が「deepinsider.jp」というサイトから、内容を改変することなく、そのまま「@IT」へと転載したものです。このため用字用語の統一ルールなどは@ITのそれとは一致しません。あらかじめご了承ください。 誰でもディープラーニングの時代 昨今、ディープラーニングの話を聞かない日はない。バズワードだった時期はとうに過ぎ、今や、実用化フェーズといっても過言ではない。 しかし、ディープラーニングの原理自体は非常に単純である。本質は、n次元ベクトル空間内の点の集合を、超平面で仕切って見せることである。しかも、計算をやってくれるライブラリが、何種類も公開されている。TensorFlowなどがそうであるが、ここにきて、Kerasというさらにコーディングが簡単なライブラリが発表されており、個人ベースでのディープラーニン

                                                                              Kerasを用いたディープラーニング(LSTM)による株価予測
                                                                            • Spark × Keras × Dockerでディープラーニングをスケーラブルにしてみた2 マルチホスト編 - Qiita

                                                                              以前、Dist-kerasをDockerに載せてスケーラブルなディープラーニングを作ってみました。 http://qiita.com/cvusk/items/3e6c3bade8c0e1c0d9bf 当時の反省点はパフォーマンスが出なかったことですが、よく見直したらパラメータの設定が間違っていたようです。 そこで反省がてら、いろいろ試してみました。 前回までのあらすじ Dist-Keras自体の説明は以前の投稿をご参照いただきたいのですが、要はSparkクラスター上で動作するKerasです。 私はこれをDockerイメージにして、スケールアウトを簡単にできるようにしてみました。 なお、DockerfileはGitHubで公開しています。 https://github.com/shibuiwilliam/distkeras-docker 今回やること 今回はDist-Keras on Doc

                                                                                Spark × Keras × Dockerでディープラーニングをスケーラブルにしてみた2 マルチホスト編 - Qiita
                                                                              • KerasでDCGAN書く - Qiita

                                                                                性懲りもなく前回の記事の追加実験を続けています。 DCGANを書きたくなったので書いてみたところ、どうでもいい知識が溜まったので書いておきます。 内容は主に以下になります。 KerasのTips的なの DCGANいじる過程 DCGAN自体の説明は他の記事を参照してください。私は主にこのあたりを参考にしました。 Chainerを使ってコンピュータにイラストを描かせる Chainerで顔イラストの自動生成 keras-dcgan Keras関連 Kerasのことしか書いてないので興味ない方は読み飛ばしてください。 Kerasのtrainable Keras DCGAN で検索すると一番上にkeras-dcganがでてきます。参考にしようと覗いてみると訓練中にtrainableの値を切り替えることによってGenerator学習時にDiscriminatorの重みを更新しないようにしているようです

                                                                                  KerasでDCGAN書く - Qiita
                                                                                • Time Series Prediction with LSTM Recurrent Neural Networks in Python with Keras - MachineLearningMastery.com

                                                                                  Time series prediction problems are a difficult type of predictive modeling problem. Unlike regression predictive modeling, time series also adds the complexity of a sequence dependence among the input variables. A powerful type of neural network designed to handle sequence dependence is called a recurrent neural network. The Long Short-Term Memory network or LSTM network is a type of recurrent ne

                                                                                    Time Series Prediction with LSTM Recurrent Neural Networks in Python with Keras - MachineLearningMastery.com