サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
参議院選挙2025
qiita.com/cvusk
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Spark × Keras × Dockerでディープラーニングをスケーラブルにしてみた3 Kubernetes編 これまでのあらすじ KerasをSpark上で稼働させるdist-kerasをDockerから起動させることで、ディープラーニングをスケーラブルにしようとしてきました。 Spark × Keras × Dockerでディープラーニングをスケーラブルにしてみた Spark × Keras × Dockerでディープラーニングをスケーラブルにしてみた2 マルチホスト編 前回まででマルチホストでの分散処理に成功しました。 しかし
Kerasで重回帰分析 ディープラーニング(というかKeras)で簡単な重回帰分析をやってみました。 ディープラーニングというと分類問題や強化学習のイメージがありますが、別に回帰分析ができないわけではありません。 ニューラルネットワークは回帰分析にも使われるものなので、ディープラーニングでも回帰分析をしてみよう、という試みです。 作ったコードはここにあります。 https://github.com/shibuiwilliam/keras_regression_sample 今回やること KerasのKerasRegressorというAPIを使って重回帰分析を行います。 データはscikit-learnが提供している糖尿病患者のサンプルデータです。 回帰分析ではよく使われるもので、小さくて便利なデータになっています。 今回の目的はディープラーニングやニューラルネットワークで回帰分析を実行する
Jupyter Notebookを簡単にプレゼンスライドにする方法 Jupyter Notebookを使ってプログラミングのプレゼンをする方を頻繁に見かけます。 多くの場合、Notebookをそのまま使って、画面を少しずつスクロールダウンながらプレゼンをしているようです。 プログラムを実行しては、ブラウザ画面を少し下に移動して、またプログラムを実行する、という流れです。 私もよくやります。 Jupyter Notebookはプログラムを順次実行して結果を見せながら説明できるため、この流れで話すとわかりやすいのですが、しかしこのやり方、案外不便でプレゼン中にマゴマゴすることが多々あります。 原因は2つあると思います。 プログラムの文字が小さい ブラウザを程よい位置に下げるのが難しく、画面端が切れる 実際にやってみるとこの図のようになります。 プレゼンしてる側もプレゼンを見ている側も、案外不便
ベイズ最適化のKeras DNNモデルへの適用 ディープラーニングに限らず、機械学習モデルを作るときに大変なのがパラメータの調整です。 機械学習モデルの精度はパラメータに左右されますが、パラメータは数も範囲も広く、最適解を見つけることが難しいのが現状です。 例えば隠れ層3のニューラルネットワークモデルを考えるとき、各層のアウトプットとなるニューロン数やドロップアウト率、バッチサイズやエポック数等々、決めなければならない要素が多く、範囲も広いです。 各パラメータの決め方は色々ありますが、可能な数値の例は大体以下になります。 ニューロン数:1以上の整数 ドロップアウト率:0以上1より小さい小数 バッチサイズ:入力データ以下の整数 エポック数:1以上の整数 ニューラルネットワークによって適当な数値はあったりしますが、データとニューラルネットワークモデル次第で適不適があるため、正直パラメータ調整は
Spark × Keras × Dockerでディープラーニングをスケーラブルにしてみた2 以前、Dist-kerasをDockerに載せてスケーラブルなディープラーニングを作ってみました。 http://qiita.com/cvusk/items/3e6c3bade8c0e1c0d9bf 当時の反省点はパフォーマンスが出なかったことですが、よく見直したらパラメータの設定が間違っていたようです。 そこで反省がてら、いろいろ試してみました。 前回までのあらすじ Dist-Keras自体の説明は以前の投稿をご参照いただきたいのですが、要はSparkクラスター上で動作するKerasです。 私はこれをDockerイメージにして、スケールアウトを簡単にできるようにしてみました。 なお、DockerfileはGitHubで公開しています。 https://github.com/shibuiwillia
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Spark × Keras × Dockerでディープラーニングをスケーラブルにしてみた 2017年2月にYahoo!からTensorFlowをSparkで分散処理させるライブラリが出ました。 http://yahoohadoop.tumblr.com/post/157196317141/open-sourcing-tensorflowonspark-distributed-deep これを個人的にDockerに乗せて遊んだりしていたのですが、じゃあKerasはどうなの?ってことで、今回はKerasをSparkで分散処理させるDist-
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Kerasが2.0にアップデートされました。 Python向けディープラーニング・フレームワークのKerasが2.0にアップデートしました。 https://blog.keras.io/introducing-keras-2.html 今回は2.0のアップデート情報と、プログラムの書き方の変更箇所をおおまかにまとめていきます。 加えてKeras1.2とKeras2.0の違いをCifar10で比較してみたいと思います。 アップデートによる変更箇所 変更内容を掻い摘んで訳していきます。 即興で意訳してます、間違いが合ったらご指摘くださいm(
青空文庫で作者っぽさ判定 青空文庫のテキストを利用して、任意の日本語文の作者っぽさを判定するモデルを作ってみました。 https://github.com/shibuiwilliam/aozora_classification 動機 2017/02のTFUG #3に参加したのですが、Rettyの中の方がcharacter-level convolutional neural networkをしていて、これで火がつきました。 https://tfug-tokyo.connpass.com/event/49849/ 元ネタとなったQiitaの記事はこちらです。 とても勉強になりました。ありがとうございます。 http://qiita.com/bokeneko/items/c0f0ce60a998304400c8 なおcharacter-level cnnの論文はこちらです。 https://p
TensorflowOnSparkを起ち上げてみた Yahoo!がTensorflowOnSparkを公開しました。 Sparkクラスターで動くTensorflowのようです。 GitHub: https://github.com/yahoo/TensorFlowOnSpark 記事: http://yahoohadoop.tumblr.com/ https://techcrunch.com/2017/02/13/yahoo-supercharges-tensorflow-with-apache-spark/ Distributed Tensorflowはすでにありますし、Sparkクラスターでの起動を試している人も見かけましたが、天下のYahoo!がTensorflowをカバーするというので面白い試みです。 Distributed Tensorflow https://www.tenso
KerasでGridSearchCVをしてみた 機械学習のモデル精度はパラメータに左右されます。 モデル構築時に活性化関数や最適化アルゴリズム、中間層のユニット数等々、多数のパラメータを設定しますが、その時設定したパラメータが最適なものかは、トレーニングして実用してみるまでわかりません。 しかし機械学習の魅力は自動的に最適なモデルが生成されることです。 であれば、パラメータも自動的に最適化されても良いじゃないか!と思うわけです。 Pythonの機械学習で有名なscikit-learnにはGridsearchcvというモデル選択とパラメータチューニングまで可能なライブラリがあります。 実はKerasはscikit-learnをラッパーしており、GridsearchcvをKerasのモデル構築時に使用することができます。 というわけで、早速KerasのGridsearchcvしてみましょう。
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
JupyterHubを構築する みなさまはPythonのコーディング環境、なにを使っていますか? Jupyter Notebookという人も意外と多いと思います。 Jupyter NotebookはWebブラウザで使うコーディング環境で、プラグインを使うことでPython以外にもJavaやR等のコーディング環境にもなります。 Jupyter Notebookだけではユーザ管理はできず、グループで開発を行うときに不便です。 JupyterHubを使えばJupyter Notebookにユーザ認証のインターフェイスを付けることができるので、その構築方法を紹介します。 ※ Jupyter NotebookはAnacondaでインストールするのが簡単です。 https://www.continuum.io/downloads ※ JupyterHub http://jupyterhub.readt
このページを最初にブックマークしてみませんか?
『@cvuskのマイページ - Qiita』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く