タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

kerasに関するdarupantsのブックマーク (14)

  • KerasでMNIST分類問題をCNNで解く - もふもふ技術部

    Kerasはあくまでも機械学習フレームワークのインタフェースを簡便なものにするラッパーなので、バックエンドが必要。基的にはtensor flowを推奨してる模様。 Home - Keras Documentation Kerasのリポジトリ。 GitHub - keras-team/keras: Deep Learning for humans インストール MNISTを学習 分類する インストール ぼくはpyenv使ってます。今回はpython 3.6.4でやってみます。 $ pyenv local 3.6.4 $ python --version Python 3.6.4 tensorflowとkerasをインストール。 $ pip install tensorflow $ pip install keras MNISTを学習 Kerasのリポジトリ内にいろんなサンプルが用意されてい

    KerasでMNIST分類問題をCNNで解く - もふもふ技術部
  • TensorFlow 2.0 : ガイド : Keras :- Keras 概要 – ClassCat® AI Research

    TensorFlow 2.0 : ガイド : Keras :- Keras 概要 (翻訳/解説) 翻訳 : (株)クラスキャット セールスインフォメーション 作成日時 : 11/24/2019 * ページは、TensorFlow org サイトの TF 2.0 – Guide – Keras の以下のページを翻訳した上で 適宜、補足説明したものです: Keras overview * サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。 * ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。 Keras :- Keras 概要 tf.keras をインポートする tf.keras は Keras API 仕様 の TensorFlow 実装です。これはモデルを構築して訓練するための高

  • Auto-Kerasを使って見る - Qiita

    TL;DR AutoML実装の一つであるAuto-Kerasを使ってみました。 Auto-Kerasのインストールから、チュートリアルにあるMNISTの分類モデルの作成までです。 AutoMLとは AutoML(Automated Machine Learning)は、機械学習プロセスの自動化を目的とした技術のことです。 以下のQiitaの記事がとてもわかりやすいです。 Qiita - その機械学習プロセス、自動化できませんか? 商用ではDataRobotやGCP AutoMLなどがありますが、 OSSとしての実装も存在します。 今回はAutoMLのOSS実装の一つであるAuto-Kerasを使ってみました。 バージョンはautokeras-0.3.5を使用しました。 インストール方法 PyTorchをインストールする Auto-KerasはPyTorchを利用しています。 このため、Py

    Auto-Kerasを使って見る - Qiita
  • 機械学習入門者がKerasでマルチレイヤーパーセプトロンのサンプルを読む

    こんにちは。 GMOアドマーケティング、機械学習入門者のT.Mです。 はじめに ゼロから作るDeep Learningを読み終え、 実際に何か作るにあたって何をしたらよいか調べていたところ ニューラルネットワークのライブラリであるKerasを知り触ってみました。 いきなりKerasのサンプルソースを見てもさっぱり分からなかったので、 ゼロから作るDeep Learningで学習した内容とKerasドキュメントを参照しながら 見ていきたいと思います。 Kerasについて Kerasについては公式ドキュメントを参照ください。 TensorFlow上で動く、ニューラルネットワークをより簡単に書けるようにした ライブラリという認識です。 サンプルソース Keras公式のサンプルソースから、 ゼロから作るDeep Learningでも5章までガッツリと書かれていたMLP(マルチレイヤーパーセプトロン

    機械学習入門者がKerasでマルチレイヤーパーセプトロンのサンプルを読む
  • kerasのmnistのサンプルを読んでみる - Qiita

    最近流行のDeepLearningを触ってみたいと思っていたところ、まずはkerasでmnistを動かしてみるのがよいとアドバイスいただいたので試してみました。 とりあえず動いたものの、pythonの知識もほとんどなく、機械学習も初心者なので、コードを見てもよく分からん。ということで、気になるところを調べてみました。同じような方の参考になれば幸いです。 Kerasとは Kerasは,Pythonで書かれた,TensorFlowまたはCNTK,Theano上で実行可能な高水準のニューラルネットワークライブラリです. Kerasは,迅速な実験を可能にすることに重点を置いて開発されました. アイデアから結果に到達するまでのリードタイムをできるだけ小さくすることが,良い研究をするための鍵になります. TensorFlowやTheanoの知識がなくても、手軽に深層学習を試すことが出来るライブラリっぽ

    kerasのmnistのサンプルを読んでみる - Qiita
  • 無から始めるKeras - Qiita

    無から始めるKerasについて Python も Keras もわからないけれど、近年のありえんニューラルネットワークブームに追いつくために勉強しようと思って作りました。 初心者で何もわからない状態から始めていますので、あたたかく見守っていただき、疑問や不審な点があればどしどしご指摘いただければとおもいます。 環境は Debian 8.8 + Python 3.4.2 + Keras 2.0.5 + TensorFlow 0.10.0 です。 もくじ はじめての Keras 活性化関数、目的関数、最適化手法とは Functional API で実装してみる 学習された重みから手計算で推定する MNIST と EarlyStopping、バッチサイズ、DropOut CNN で MNIST リカレントニューラルネットワーク Register as a new user and use Qii

    無から始めるKeras - Qiita
  • Optimizer : 深層学習における勾配法について - Qiita

    はじめに 深層学習の勾配法には様々な手法が提唱されています。その中で、どの手法を用いるのが適切であるか自分でもあまり理解できていない部分があり、今回は勾配法の中でも実際に深層学習で主に用いられている手法(SGD, Momentum SGD, AdaGrad, RMSprop, AdaDelta, Adam)について、実装することを前提に調べてまとめてみました。実装フレームワークはChainerを想定しています。 SGD SGD(Stochastic Gradient Descent : 確率的勾配降下法)は、Optimizerの中でも初期に提唱された最も基的なアルゴリズムです。重み$\mathbf{w}$の更新は以下のように行っております。このとき、$E$は誤差関数、$\eta$は学習係数を表しています。 \mathbf{w}^{t + 1} \gets \mathbf{w}^{t} -

    Optimizer : 深層学習における勾配法について - Qiita
  • Python: Keras の学習曲線をコールバックで動的にプロットする - CUBE SUGAR CONTAINER

    Keras でニューラルネットワークの学習が進む様子は一般的にコンソールの出力で確認できる。 しかし、もっと視覚的にリアルタイムで確認したいと考えて、今回はコールバックと Matplotlib を駆使して可視化してみることにした。 使った環境は次の通り。 $ sw_vers ProductName: Mac OS X ProductVersion: 10.14.6 BuildVersion: 18G95 $ python -V Python 3.7.4 $ pip list | egrep -i "(keras|tensorflow)" Keras 2.2.5 Keras-Applications 1.0.8 Keras-Preprocessing 1.1.0 tensorflow 1.14.0 tensorflow-estimator 1.14.0 下準備 まずは今回使うパッケージをイン

    Python: Keras の学習曲線をコールバックで動的にプロットする - CUBE SUGAR CONTAINER
  • 挑戦! word2vecで自然言語処理(Keras+TensorFlow使用)

    ご注意:記事は、@IT/Deep Insider編集部(デジタルアドバンテージ社)が「deepinsider.jp」というサイトから、内容を改変することなく、そのまま「@IT」へと転載したものです。このため用字用語の統一ルールなどは@ITのそれとは一致しません。あらかじめご了承ください。 ディープラーニングと自然言語処理 画像認識や音声認識の分野では、すでに圧倒的ともいえる成果を誇っているのがディープラーニングである。画像識別のニュースに驚かされてからわずか数年のうちに、例えば「GAN(Generative Adversarial Network)」という技術が開発されていて、これを使うと、文字どおり何もないところから写真と見まがう画像を生成することができる。まさに、「十分に進歩した科学は魔法と区別がつかない」。 では、ディープラーニングのもう一方の有力分野である自然言語処理の状況はど

    挑戦! word2vecで自然言語処理(Keras+TensorFlow使用)
  • Kerasを用いたCIFAR-10チュートリアル - Qiita

    お知らせ これまでこの記事でチュートリアルの内容を公開していましたが、規模が大きくなり更新が二度手間になるので、詳しい内容はGithubのノートを参照していただくようにしました。そのほうが最新の内容をフォローできると思うので、良いのではないかと考えました。なお、Githubのほうでの更新については、継続してこちらのページでお知らせするつもりです。 リポジトリはこちら チュートリアルの内容のみご覧になりたい方はこちらから なお、チュートリアルの内容でエラー等が出た場合は、記事へのコメントかGithubのissueページでご報告いただけるとうれしいです。 CIFAR-10 チュートリアル: この記事の内容 CIFAR-10 チュートリアル[付録]: ちょっとしたTips CIFAR-10 チュートリアル[転移学習]: CIFAR-10を用いた転移学習について。 いつか記事にするかも。 dltパ

    Kerasを用いたCIFAR-10チュートリアル - Qiita
  • [Python]強化学習(DQN)を実装しながらKerasに慣れる - Qiita

    はじめに この記事はいまさらながらに強化学習(DQN)の実装をKerasを使って進めつつ,目的関数のカスタマイズやoptimizerの追加,複数入力など,ちょっとアルゴリズムに手を加えようとした時にハマった点を備忘録として残したものです.そのため,DQNの解説記事というよりも初心者向けKerasTipsになります. 実行環境 Python3.5.2 Keras 1.2.1 tensorflow 0.12.1 DQNとは DQN(DeepQNetwork)がDeepMindから発表されて2年以上経つので,もはやいたる所に解説記事や実装サンプルがあり,ここでの詳しい解説は不要だと思います.が,ざっくり言うと,Q-Learningという強化学習手法のQ関数部分を,深層学習により近似することで、動画像から直接Q値を推定することを可能にした学習手法です. DQNの理論としては ゼロからDeepまで学

    [Python]強化学習(DQN)を実装しながらKerasに慣れる - Qiita
  • [Windows編] Deep Learningをすぐに試せるライブラリKeras講座~その1 - Qiita

    はじめに 近年流行りのディープラーニングを理論を知らなくてもとりあえず試してみたい人やただ使いたい人向けの投稿になります。自分のメモのために書いているので、分かりにくい箇所や間違いがあればご指摘ください。 Kerasとは、TensorflowとTheanoのためのPythonによるラッパーであり、深層学習ライブラリです。このライブラリを使用することで、非常に簡単に深層学習を体感することができると共に、多くのネットワーク構造を難しい理論を意識することなくコーディングすることができます。 この記事では、TensorflowとKerasの導入とまず手始めに多層パーセプトロンで四角形の識別を行います。 (追記)多くの方に見ていただけているようなので、学習済みパラメータを読み込んでの識別も追加しました。皆様の参考になれば幸いです。 (2017/03/09追記)2017年2月15日にGoogleからT

    [Windows編] Deep Learningをすぐに試せるライブラリKeras講座~その1 - Qiita
  • VGG16のFine-tuningによる犬猫認識 (1) - 人工知能に関する断創録

    VGG16はILSVRCのコンペ用に学習されたニューラルネットなのでImageNetの1000クラスを認識できる。しかし、前の記事(2017/1/4)で実験したように「ひまわり」のようなImageNetに存在しないクラスはそのままでは認識できない。 この問題を解決するためVGG16の高い認識能力を継承しつつ、新しい独自のクラス(今回は犬かかの2クラス)を認識できるように少量のデータでニューラルネットの重みを再調整することをFine-tuningという*1。「少量のデータで」というところがすごく重要。もし大量データでないとダメだったらAWSの利用料で破産するのでこの記事は書けない(^^;; 今回は、Keras Blogの - Building powerful image classification models using very little dat を参考に犬との2クラス認識を

    VGG16のFine-tuningによる犬猫認識 (1) - 人工知能に関する断創録
  • エンジニア勉強会でChainerとKerasの比較をしてみました

    エンジニア勉強会でChainerとKerasの比較をしてみました pythonエンジニア勉強会機械学習 はじめに こんにちは、新卒1号エンジニアの村上です。 ビザスクでは去年の7月頃から毎週水曜日にエンジニア勉強会(読書会)をやっています。当初は1冊を選んで、章ごとに担当を決めて読書会形式で行っていました。(ex.『エキスパートPython』『リーダブルコード』) ところが、最近になって「たまには手を動かして新しい技術に触れることもしたいよね!」という想いから、個人の興味がある分野でビザスクに還元できそうな内容をプレゼンするという形式になりました。 今回は、その先々週の勉強会で発表した内容になります。 おしながき ChainerとKerasでやったこと スライド スライドの補足 まとめ ChainerとKerasでやったこと 分類問題を題材に、シンプルなニューラルネットワークをChain

    エンジニア勉強会でChainerとKerasの比較をしてみました
  • 1