Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

MatplotlibでRuntimeError,ImportErrorになった時の対処法 経緯 Pythonの学習を進めている途中で以下のようなエラーにぶち当たり、色々試行錯誤して理解しました。せっかくなのでそれを解決するに至ったストーリーをQiitaの練習がてら残します。。。 該当のコード /Users/MYNAME/.pyenv/versions/anaconda3-5.1.0/envs/Pycharm_test/bin/python /Users/MYNAMEo/math_training/liner_function Traceback (most recent call last): File "/Users/MYNAME/math_training/liner_function", line 3, in <module> import matplotlib.pyplot as
Object Detection APIで勾配降下法を変更したり、データ拡張を行う Object Detection APIのデータ拡張や勾配降下法の変更方法が、あまり投稿されていなかったので、メモしておきます。 対象者 Object Detection APIを使ったことがある方 勾配降下法を変更する デフォルトの状態 下記デフォルトの状態で、70行目あたりに下記のコードがあると思います。 この中のoptimizerの箇所を変更していきます。 train_config: { batch_size: 24 optimizer { rms_prop_optimizer: { learning_rate: { exponential_decay_learning_rate { initial_learning_rate: 0.004 decay_steps: 800720 decay_fact
ブラウザのGPUを利用してディープラーニングを実行できるライブラリTensorflow.jsを利用して手話数字を認識させてみました。こんな感じ。 デモ: Webcam Sign Language Digit Classification with TensorFlow.js 学習済みモデルをブラウザにアップロードすることで、ウェブカメラから手話画像を識別することができます。デモはHerokuの無料枠で公開してみました。 手話数字のデータセットはSign Language Digits Dataset - Kaggleより、0~9までの手話画像2,000枚(各200枚)を使いVGG16モデルを使い学習させています。 学習モデル作成はPython3+Kerasで行い、JavaScriptで読み込み可能な形式にコンバート(変換)します。その学習モデルを使いTensorFlow.jsとブラウザで推
1.概要 そういえば某ビジネス系オンラインメディアのPV推移を個人的な趣味で定点観測しているのですが、そのオンラインメディアのADページで、PVやUB(UniqueBrowser)の数値をHTMLページのTableタグで表記して公開している事に気付いたので、最近覚えたGoogle colaboratoryを使ってPandasのread_HTML()でPV数値を読み込んで、Matplotlibでグラフ描画しようというのが、本イシューの趣旨。 (注:今まで1個1個PVやUBの数値をExcel等にてコピペしてグラフ描画する的な作業をやっていたけれど、その作業が超絶面倒くさいので、数値取得からグラフ描画までをpython用いて全自動で描画して楽をしよう今流行りのRPA業務自動化?というものを目指そうというのが本イシューの趣旨) ※東洋経済広告HP [デジタル広告]-[東洋経済オンラインとは] ht
本稿では、KerasベースのSeq2Seq(Sequence to Sequence)モデルによるチャットボットを、LSTM(Long short-term memory)単層のアーキテクチャで作成し、Google Colaboratory上で動作させてみます。 1. はじめに 本稿はSeq2SeqをKerasで構築し、チャットボットの作成を目指す投稿の2回目です。前回の投稿で、訓練データを準備しましたので、今回は単層LSTMのSeq2Seqニューラルネットワークを構築して、訓練と応答文生成を行います。 2. 本稿のゴール 以下のとおりです。 ニューラルネットワーク(単層LSTM)の構築と、訓練 応答文生成 なお、本稿の前提となる動作環境は、冒頭でも触れたとおり、Google Colaboratoryです。 ただし、Google Colaboratoryでは、TensorflowやKera
最近のサポート状況 自分のメモ用も兼ねて,horovodに最近どのような機能が追加されたか簡単に書きます. (2018/10/2 記載) GPUでのFP16サポート#529 allreduceするgradientをfloat32からFP16にキャストするというもの. こういう事しても,学習精度に影響ないのですかね?chinerMNも似たようなことやってそう. tf.keras#513 もともと,kerasはTensorflow専用ではありませんが, kerasがTensorflowに統合され高レベルのAPIの一つとして利用可能になりました. horovodでも対応したようです. hierachical allreduce algorithmの改善#411 NCCL ReduceScatter - Parallelized MPI Allreduce - NCCL Allgather を利用
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Define-by-run である Eager Execution がデフォルトとなり、 API も大きく変わりそうな tensorflow 2.0。 紹介の動画が詳しくそれらを説明してくれているので 英語のリスニング練習のために 大まかな内容を日本語に書き起こしました。 スクリーンショットはすべて上記動画のもので文章は基本的にはそれらの要点を引用し訳したものとなります。 訳は意訳で、細かい部分は書いていません。 動画の意図と異なる部分などありましたらご連絡ください。 最初に (このセクションは動画の翻訳ではありません) この動画では
BatchNormalization(以下BN)を入れると 過学習が起きにくくなるという事は経験的にわかっていましたが どこに入れればいいのか不明なので、簡単なCNNのモデルを作成し確認してみました BNの細かい説明はお魚の本P.186~を参照 データセットによって動きが変わることは十分考えられますので、参考程度にお願いします ただ、思ったよりも動きが変わって面白かったです ※△1 2018.10.7追記 上記の予想通り、データセットをcifer10に変更したところ BNを入れた方がlossが大きくなる結果となりました 検証はこちらに掲載します 簡単にまとめると データ数が十分に多く、モデルのパラメータが少ない 過学習が起きづらいモデルに対してBNを導入すると lossが大きくなるようです 確認環境 python3.6.6 Tensorflow:1.10.0 Keras:2.2.2 学習デ
本稿では、Seq2Seq(Sequence to Sequence)モデルによるチャットボットをKerasベースで作成するにあたり、学習用の日本語会話データ収集、整形、品詞分解手順を記述します。実行環境は、Google Colaboratoryを想定します。 1. はじめに Kerasは少ないコードでニューラルネットワークを構築することができ、大変重宝しています。あまりに便利なので、KerasベースでSeq2Seqを実装しようと思ったときにも、「Seq2Seqレイヤー」のようなものがすでにあって、1行で実装完了!などと言ったことを期待していましたが、残念ながらそうではありませんでした。 そこで、Keras : Ex-Tutorials : Seq2Seq 学習へのイントロを参考に、Kerasベースの日本語チャットボット作成に挑戦してみます。 2. 本稿のゴール 以下の段取りを踏んで、Seq
今回はPython3のmatplotlibの簡単な使い方について話したいと思います. なぜwxpythonの続きではなく?--->理由は授業で使うからの理由でmatplotlibにした. matplotlibとは matplotlibはPythonでグラフを描画するときなどに使われる標準的なライブラリです. 画像ファイルを作るばかりでなく,簡単なアニメーションやインタラクティブなグラフを作ることもできます. 実際の例はmatplotlibサイトのギャラリーで見ることができます. https://matplotlib.org/gallery.html 準備 サンプルコードを動かす上で予めいくつかモジュールを読み込んでおきます. Wikipediaでmatplotlibを見てみると以下の4つのグラフについて紹介しました. 折れ線グラフ ヒストグラム 散布図 3Dグラフ 今回のデータ可視化する図
TensorFlow? Google Colaboratory で TPU が使えるということで盛り上がっているようなので、訳の分からぬまま使ってみることにしてみました。Qiita 等各種記事を見る限り、TensorFlow というライブラリから呼び出すようになっているようです。 TensorFlow というものを調べてみると、どうも配列演算のサブルーチン集のようで、Fortran でいえば、’70年代や’80年代のアレイプロセッサ時代に逆戻りしたような趣きです。ただリダクション演算が拡張されていて、指定の任意の Rank 間でリダクション演算ができるようになっています。これは、Fortran で不満に思う所なので中々気が利くなと思いました。Tensor の名前の由来と思われます。 けしからんことに、各種言語用の API が用意されているのに、最もふさわしいと思われる Fortran 用が
はじめに scikit learnにはdigitsと呼ばれる0~9までの数字の手書きの画像データが含まれています。 これを多変量分析の一種である主成分分析(PCA)を利用して可視化するという事例は多数紹介されています。たとえばScikit-learnでPCAなど。 ただし、可視化は大抵第2主成分までの2次元データである例がほとんどでした。ここでは第3主成分までなんとか可視化させてみたいと思います(ネタ)。 なお主成分分析に関しては意味がわかる主成分分析がわかりやすかったと思います。 digitsのデータの可視化 ライブラリのimportから画像データの可視化までを行います。 # -*- coding: utf-8 -*- import numpy as np from sklearn import datasets from sklearn.decomposition import PCA
GANでファッションショー この記事の目的 人工知能界隈を賑わせるGANについて、実装しながら学ぼうという企画です。 PythonとKerasを使えば、なんと180行くらいでGANによる画像生成ができちゃいます。しかも、学習にかかる時間は数分。使用するデータセットは https://github.com/zalandoresearch/fashion-mnist mnist_fashionです。mnist_fashionは、mnistと同じ28×28の画像データセットです。mnistと同じ形式で、様々なファッション画像を保存したデータベースです。数字より、服のほうが圧倒的面白いので、こっちを使うことにしました。なお、ダウンロードはプログラムでカンタンにできるので、事前にする必要はありません。 この記事を書くにあたっては https://github.com/eriklindernoren/
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 電車が運転見合わせになって時間ができた(?)ので、暇つぶしがてら初心者向けにTensorFlowのNMT (ニューラル機械翻訳)サンプルで指定できるパラメータについてざっくり解説しようと思う。使う人が増えて「俺が考えた最強のネットワーク」が増えるといいなと思う。TensorFlow公式のNMTのサンプルは良く出来てて、seq2seqをとりあえず使ってみるなら適当な入力データを用意すれば使えてしまう。ちなみに、、、筆者は機械学習バリバリだが深層学習バリバリって訳ではないので、情報が間違っていたら深層学習強者の皆様からあたたかいコ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く