Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Udacityのディープラーニング基礎コース(Deep Learning Foundation)を終えたので感想。 1月から17週の有料コースで、世界中で5000人以上の方がこのコースを受講しているメガコース。日本からも50名程度参加してるよう。 アメリカはもちろん飛び抜けて多そうだけど、中国、インド、カナダ、イギリス、ドイツあたりからも100名以上参加してそう それなりに負荷の高いコースでしたが、かなり勉強になった。ディープラーニングの基本の実装から、フレームワークを使った具体的なプロジェクトまで幅広く学ぶことができた。 AI AIが
概要 書籍『ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装』2章のコードを参考に Python と Ruby でパーセプトロンによる論理回路 (ANDゲート, NANDゲート, ORゲート, XORゲート)を実装する。 計算処理では外部ライブラリを利用する。Python では NumPy を、Ruby では Numo::NArray を使用する。 環境構築が必要な場合はこちらを参照。 → Python vs Ruby 『ゼロから作るDeep Learning』 1章 sin関数とcos関数のグラフ http://qiita.com/niwasawa/items/6d9aba43f3cdba5ca725 ANDゲート 重みとバイアスは、人力で適切な値を導いたもの。 Python and_gate.py import numpy as np def
実用価値の高いCNN畳み込み層とLSTMを組み合わせたモデルです。 論文 では、地理空間の各座標地点ごと の 時系列降水量 分析タスク を 扱っています。 GIS地図エリアごとの時系列変化グラフ を 出す こと ができるため、降水量分析問題 以外にも、マーケティング商圏分析 から、無人自動車支援のための交通流量分析 など、広範な用途 が 考えられます。 【 原論文 】 Xingjian Shi, Zhourong Chen, Hao Wang and Dit-Yan Yeung, Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting 【 関連Webページ 】 masataka46さん Qiita記事 「LSTMを改良してconvLSTMにする」 convLSTMについて co
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 最初は、軽量なConvNetに興味があったのでGoogleから出ているMobileNets 1 を読んでいたのだが、その過程でCholletさんのXception論文 2 を(後者は今更)読んだので合わせてまとめる。Cholletさんの論文はなんとなくカジュアルな雰囲気がして面白い。 どちらの論文もpointwise convolutionとdepthwise (separable) convoutionを用いて精度を保ちながらCNNのパラメータ数を削減している。すなわち、精度とパラメータ数のトレードオフを改善していると言える
CNTK ってご存知でしょうか?すでに何かしらの Deep Learning フレームワークを使ったことがある方にとっては、「MS が出してるってことくらいは知ってるけど・・・」という方が大半だと思います。 実際、周りに聞いてみると、まだバージョンが上がる前の DSL で書かれている記事などを見た人には習得コストが高いのでは?と思われていたり、そもそも CNTK に関する日本語のドキュメントが少なくいまいちどういう特徴があるのかわからないって人も結構多いようです。 そこで、本記事では、Python 対応になってより使いやすくなった CNTK について、その特徴や他のフレームワークとの差異などをキーワードを散りばめながら紹介してみようと思います。 "Open-source, Cross-platform Toolkit" オープンな開発環境 オープンソースで GitHub上で開発が進んでます
はじめに 先日、FPGAでDeep Learningしてみるという記事で、PYNQやBNN-PYNQについて書きました。前回の記事では、PYNQ-Z1 Boardという比較的安価なFPGAボードの紹介と、あらかじめ準備されたデモ(Cifar10)の実行までを行いました。そこで今回は、あらかじめ準備されたデモから少し発展して、きゅうりの選果を行ってみます。 事前説明 BNN-PYNQをカスタムするには 前回の記事にも書きましたが、Deep Learningは、大きく学習と推論で構成されます。BNN-PYNQでは、推論のみが実装されています(学習はCPU/GPUで実施する必要があります)。そのため、BNN-PYNQをカスタムするということは、学習にあわせて、推論のネットワーク構造やパラメーターを変更することになります。 前回のCifar10を例に取ると、BNN-PYNQでは、下記の流れでJup
ポエム判別器 Qiita初投稿です。よろしくお願いします。 Qiitaは主に読む方で使わせていただいているんですが、統計ヤクザとか見たことがあるので、正直コメント貰っても返すの怖いし(twitterで受けつけます)、Qiitaはいいかなって思っていました。 しかし、今回はQiitaそのものを評価の対象とするので、Qiitaに投稿したいと思います。 Qiitaでは、主観や感情が入り乱れる投稿は嫌われる傾向があり、負のイメージを持ってポエムと言われることがあります。 それを機械学習で分類していれければいいね、ということで、やってきます。 手法選択 考えられるメソッド Bag of Wordsなどでlogistic-regression Bag of wordsなどでsvm Bag of wordsなどでxgboost doc2vec, fasttextなどのエンベッディングでテキスト分類 Re
論文 は いくつかあるのでしょう が、まず は 大御所 Bengio先生 の 以下の論文 が 参考 に なります。 ( 論文 ) Yoshua Bengio Practical Recommendations for Gradient-Based Training of Deep Architectures 以下 の やりとり の中 で 言及されています。 Google group Chainer Japanese User Group 「LSTMにおける中間層のユニット数」 yukinoji お世話になっております。 chainerを利用してLSTMモデルを構築しているのですが、中間層のユニット数の設定が上手くいかず困っております。 現在およそ15000次元の数値ベクトルを入力として与え、それが0,1の2つのクラスのどちらに所属しているかを教師データとして与え、学習を行うよう実装している
【更新】 ※少々表(本のリスト)が見づらかったので変更をしました。 ※著者、出版社については、リンク先のAmazonでご確認ください。 はじめに 今回は私が人工知能プログラミングを学習する際に参考にした書籍と、 そのスキル習得の道筋を上記フローと共に振り返りメモとして残します。 現在私は競馬予想・AIがゲームをプレイするプログラムを作成しています。 これから人工知能の領域に一歩踏み出そうという方に少しでも本Qiitaが役立てば幸いです。 今回具体的にプログラムの説明はしないので、 人工知能プログラム自体に興味のある方は本Qiitaの最後にリンクを載せているので参照してください。 前提 今回選択した書籍は私が読んだものの中でも比較的易しめで、 可能な限りプログラムが添付されているものを選択しました。 なぜなら、プログラムを実装して、動かして、理解して、を繰り返すのが、 スキル習得(実装を含む
はじめに 趣旨 個人的にディープラーニングや機械学習を学習したいと思い、O'Reilly Japanさんから出版されているゼロから作るDeep Learningを読みました。 しかし、私自身に知識がなく、いまいちピンとこなかったので、簡単なものを作ってみようと考えました。 とはいえ、せっかくなら自分の趣味でもある麻雀に関わるところで作ろうと考えました。 筆者のスペック Python、機械学習ともに初心者 普段はPHPやRubyを使ったWebのお仕事 環境 Python 3.6.0 bottle 0.12.13 heroku 機能概要 作成したアプリは下記になります。 https://python-mahjang.herokuapp.com/index また、ソースコードは下記になります。 https://github.com/naoki85/python_mahjong 配牌と結果のみを学
GitHub にある DingKe/qrnn/ の サンプルコード imbd_qrnn.py https://github.com/DingKe/qrnn/ は、 from keras.datasets import imdb で、kerasの組み込みデータセット imdb を 読み込んで いる。 このデータは、以下 の 公式解説 に よる と、 Keras Documentation データセット 「IMDB映画レビュー感情分類」 IMDB映画レビュー感情分類 感情(肯定/否定)のラベル付けをされた、25,000のIMDB映画レビューのデータセット。レビューは前処理済みで、各レビューは単語のインデックス(整数値)のシーケンスとしてエンコードされている。便宜上、単語はデータセットにおいての出現頻度によってインデックスされている。そのため例えば、整数値"3"はデータの中で3番目に頻度が多い単
書きました https://t.co/m4YhZolDjD — mooopan (@mooopan) February 20, 2017 ということでChainerの強化学習版ChainerRLが公開されていました。 このところ手を広げすぎていて中々丁寧な仕事ができない中、 30分 x 2日でDouble DQNでライントレーサーできました。ライブラリ便利で助かる! 使用環境 Windows 10 - 64bit <諦めが悪い心の強さ…!> Python 3.6.0 |Anaconda 4.3.0 (64-bit) <プライドより実利!> ChainerRL 0.2 < Dependency緩くしてほしい> Chainer 1.19 <1.20でTheanoのお世話できてない!会社ではTheano動いたのに。>
はじめに Deep Learningをやろうと思ったらでかい計算資源が必要なのが当たり前なのだけど、手持ちのPCのスペックで十分とかそうそうありはしないので、EC2のGPUインスタンスをささっと立てて使うのも手だと思う。 FrameworkはKerasでバックエンドはTensorFlow GPUバージョン。それをpyenv仮想環境でセットアップする構成とした。先日TensorFlow 1.0がリリースされてtf.kerasが実装されたみたいだけどまだ試してないので普通にKeras使うことにする。 環境構築についてはこちらを参考にさせていただいた。 AWSのGPUインスタンスでTensorFlowを動かす インスタンスの作成 EC2 Instance: クイックスタートにある Ubuntu Server 16.04 LTS (HVM), SSD Volume Type Type : g2.2
オーソドックス な アプローチ(一般的手法) まず は、以下 が よくまとまっている。 株式会社クロスコンパス・インテリジェンス(2016.10.5)「NVIDIA GPU TECHNOLOGY CONFERENCE JAPAN 2016 Industry Deep Learning」 異常値予測 を 行う アプローチ としては、以下 が 一般的な考え方 の ようだ。 (データ量の多い)正常時のデータ挙動の特徴パターンを学ばせて、 新規データが上記の特徴パターンから乖離している場合を、異常とみなす 上記のアプローチをとる理由 は、「異常発生時のデータ」の取得可能件数 は、「正常時のデータ」 に 比べて、取得できるデータの件数 が 圧倒的に少ない から である。 上記のスライド で 挙げられている AutoEncoderモデル や LSTMモデル を 採用し、 AutoEncoderモデル
はじめに 昨今,DNNs(Deep Neural Networks)の進歩が目覚ましくあらゆる分野で成功を収めています. 良く耳にするのは,画像分類や音声認識の分野ですが,対話システムも例外ではなくなりました. Pythonのライブラリ環境が充実しつつある今,DNNsを用いた対話システムの構築について簡単に紹介したいと思います. 対話システムのためのDNNsモデル 対話システムを構築するためのDNNsのモデルは大きく分けて2つあります. 大量の応答候補に対するランキング学習 -> 入力に対して応答候補文をそのまま選択 発話と応答のペアから,Encoder-Decoderモデルを学習.-> 入力に対して単語単位で応答発話生成 本記事では,後者のEncoder-Decoderモデルについて扱います. Chainerなどのライブラリが充実したおかげで,発話と応答のペアとなるデータさえあれば,誰で
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? #------------------------------------------------------------------------------- # Use Chainer (http://chainer.org/) from R # with reticulate package (https://github.com/rstudio/reticulate) # # original code in Python: # https://github.com/pfnet/chainer/blob/master/examp
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く