Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
$ git push heroku master Counting objects: 5, done. Delta compression using up to 2 threads. Compressing objects: 100% (5/5), done. Writing objects: 100% (5/5), 562 bytes | 0 bytes/s, done. Total 5 (delta 3), reused 0 (delta 0) remote: Compressing source files... done. remote: Building source: remote: remote: -----> Fetching set buildpack https://github.com/heroku/heroku-buildpack-multi... done re
ディープラーニングを使ってロト6の数字でも予想してみようかという遊びです。 もちろんロトは毎回ランダムな数字を出しているだけなので上手くいくはずないんですが、真剣に予想されている方もいるようだし、ササッとコードも書いてしまったので、HDDに埋めておくよりは公開しておきます。 あまり真剣にやってないので、解説も適当です。気になることがあればコメントください。 目標 ロト6の当選番号予測。 ※ロト6を選んだのは、私が唯一買ったことがある数字当て系宝くじだからです。 概要 入力はどーしようかと思ったのですが、過去5回分くらいの当選番号としました。 ロト6は、43個の数字の中から6つが選んで、6つ全部当たれば1等賞というような仕組み。ですので、出力としては43個のフラグで、例えば1,3,4,11,20,43が当選番号の場合、[1,0,1,1,0,0,.....0,0,1]みたいなフラグを予想するも
原文 強化学習における自己符号化器付き深層ニューラルネットワーク(Deep Auto-Encoder Neural Networks in Reinforcement Learning) Sascha Lange and Martin Riedmiller (2010) 1. 要約 (メモリ基盤の)バッチ強化学習(Reinforcement Learning; RL)アルゴリズムを考案した。これにより、自己符号化器でDNN (Deep Neural Network)を学習し、特徴空間を創出することができる。 メインの機械学習アルゴリズムは、MLP(Multi Layer Perceptions) 、いわゆる多層自己符号化器を使う。 2. 背景 強化学習は、次の2ステップからなる。 ①入力データから特徴を抽出する ②特徴空間から、教義(Policy)を学び、行動に落としこむ これまで、①は人
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? ロボットから自動運転車、はては囲碁・将棋といったゲームまで、昨今多くの「AI」が世間をにぎわせています。 その中のキーワードとして、「強化学習」というものがあります。そうした意味では、数ある機械学習の手法の中で最も注目されている(そして誇張されている・・・)手法ともいえるかもしれません。 今回はその強化学習という手法について、基礎から最近目覚ましい精度を出しているDeep Q-learning(いわゆるドキュン、DQNです)まで、その発展の流れと仕組みについて解説をしていきたいと思います。 本記事の内容をベースに、ハンズオンイベントを開
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 機械学習とは wikipediaによると 機械学習(きかいがくしゅう、英: machine learning)とは、人工知能における研究課題の一つで、人間が自然に行っている学習能力と同様の機能をコンピュータで実現しようとする技術・手法のことである。 コンピュータに大量のデータを放り込んで自動的に特徴を発見させ、未知のデータに対してもその特徴から何に該当するかを推測させる手法……だと思う。 大量のデータがなくても学習させる方法も研究されているみたいだけど、タイトルにもある通り細かいことは気にしない。 独断と偏見による他のバズワードとの関係
概要 実運用可能なLINE BOTサーバを考えると、次の参考URLでyoichiro6642さんが書いているように非同期の処理が必要になります。 参考URL:大量メッセージが来ても安心なLINE BOTサーバのアーキテクチャ 小中規模の環境で、ある程度大量メッセージが来ても耐えられることを目的として、上記に沿ったLINE BOTサーバ(のスケルトン)を書いてみました。 最後の「APIの呼び出し回数を減らす」(メッセージ送信で複数MIDを指定してPIの呼び出し回数を減らす)ところは実装してません。 利用した環境は以下です。 OS : CentOS 7.2.1511 x86_64 BOT Server : Node.js v6.2.0 Queue : MongoDB v3.2.6 Dispatcher & jobWorker: Python 2.7.5 Amazon API Ga
DSSTNEとは? DSSTNEは、Deep Scalable Sparse Tensor Network Engineの頭文字を並べたもので、読み方は“Destiny”と読むらしい。 なぜ今アマゾンがDeep Learning(DL)のオープンソースを発表したのか? DSSTNEは、既存のDeepLearningのオープンソースよりも、データがSparse(疎)なときに高いパフォーマンスを示すため、Amazonのように大量の商品データ、ユーザーデータを持ち、その二つのオブジェクトが購買、評価などの行動をした行動データを持つような疎行列データを持つ場合に強いDeapLearningのオープンソースと言える。 スパース(疎)行列データとは? 疎行列(そぎょうれつ、英: sparse matrix)とは、成分のほとんどが零である行列のことをいう。 スパース行列とも言う。 有限差分法、有限体積法
これはHierarchical Probabilistic Neural Network Language Model に登場するHierarchical Softmax(以降hSm)について簡単に書くものです. 分類問題(特にsoftmax関数)に関する基本的な知識を必要とします.あとハフマン木がどのように構成されるかについて知っている方と理解がスムーズに進むかと思います. 手法の背景 Neural Networkを用いて文字列の生成をする場合,一般にラベル(単語)の予測にはSoftmax関数が用いられる.Softmax関数は$m_l = \langle \mathbf{w}_l, \mathbf{x} \rangle$とした時, で定義される関数である.自然言語で語彙を考える場合,辞書は数万単位のサイズになる.そのため,$Z=\sum_k^K exp(m_k)$の計算が非常にハイコスト
光センサがコースを検知したら左曲がりに進行、検知しなかったら右回りに進行、という味気ないやつ 青色 僕らの期待の新星DQN 入力:[[光センサの検知/不検知][前回とった行動]]を1セットに過去5個分 : 20次元 隠れ層:50ユニット x 2枚ほど <実は前の記事で隠れ層が1枚なのに2枚と勘違いしてました> 出力:左曲がり進行、直進、右曲がり進行 ご褒美:コースから5px以内 +1ポイント 10px以内 +0.5ポイント 壁際2px以内 -1ポイント そして、壁にぶつかったら張り付き続けてしまい学習時間に支障が出そうになるのでコース上に位置リセット。 現状の状況 いくら直近の過去のことを覚えていても自分の位置もわからない一つ目お化けじゃ迷子になる様子? せめて2つ以上センサーがあるようなライントレーサーにしたり、自分の位置を計算したりするなど何らかの手段で、自分とコースの位置関係を把握で
こんにちは 本業はプログラマじゃない人です。 テレビで「ディープラーニング」というキーワードがバズっているときに、 分散深層強化学習でロボット制御 | Preferred Researchを見て、 試してみたいことが出てきたので、いきなりクローンとは言わず、まず簡単なものから作った。 ⇒ 置き場:DeepQNetworkTest 狙い Pythonも初めて!Chainerも初めて! プログラミングの作法すら分からないのに周囲にソフト屋さんがいない! でも、自走機械に強化学習というのをやらせてみたい! ⇒ とりあえず公開すれば教えてくれる人が出てくるかもしれない 慣性とか持っている機械を動かして見せてる事例が本当に少ない(気がする) ⇒ 次のステップで入れてみよう やったこと ConvNetJS Deep Q Learning Reinforcement Learning with Neur
Facebook Messenger PlatformやLINE BOTが話題になっていますが、下記の記事でも言及されているように、BOTサーバーとして大量メッセージに対応するには「並行処理」がキモになってきます。 大量メッセージが来ても安心なLINE BOTサーバのアーキテクチャ そしてElixirといえばやっぱり「並行処理」なわけです。ということで「BOTサーバーを効率よく開発するにはElixir/Phoenixってとても良い選択なのでは?」という仮定のもと、色々と検証してみました。 並行処理のコード Elixirでプロセスを起動・管理する方法はいくつも用意されていますが、BOTサーバーの要件的に「状態」を管理する必要はありませんし、プロセスから「戻り値」を返してもらう必要もありません。要するにプロセスは「使い捨て」というか、実行が終わったら勝手に終了してくれればそれでオッケーなわけで
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 📜 要約 コンテナー管理ソフトウェアのDockerを利用することで、データ分析の場面で利用頻度の高いRおよびPythonの分析環境として実行することが出来るRStudio Server、Jupyter、Beaker Notebookを容易に構築可能になる。Dockerを使うことの利点として、複数人でのデータ分析や将来の利用面においてデータ分析結果の再現性を高められると考えられる。 🍵 前置き〜データ分析者が直面する再現性への挑戦 データ分析の結果が、自分以外では再現できない、同じデータを使っているのにナンデ!?ということが時々ありま
画像生成 Deep Convolutional Generative Adversarial Networks Newmu/dcgan_code: Deep Convolutional Generative Adversarial Networks 寝室画像の自動生成 Arithmetic on faces 画像の意味を足し算、引き算できる。 顔の向きを回転 向きを変えた顔を自動生成。 Face Frontalization 正面から見た顔を自動生成。(Deep Leariningではないかもしれませんが、顔の向きを変える類似研究として。。。 ) dougsouza/face-frontalization: This is a port of the Face Frontalization code provided by Hassner et al. at http://www.open
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Goodfellow,Bengio,CourvilleさんのDeep Learning本の18章まとめ 重要と思った部分だけ独断で抽出しています. 本当にメモ書き程度です. すみません. 間違っている記述があるかもしれません. 心眼で書いている部分があるかもです. Score matchingのくだりは正直よくわかっていないです. 18.Confronting the Partition Function 16章でやったように(無向グラフィカルモデルとかでは)規格化されていない確率分布がよく現れる. このとき規格化するためには積分をする
Deep Residual Learning for Image Recognition Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun ImageNetのCompetitionで1位になったMSRAの論文 ・network層をdeepにすることは性能向上に欠かせない。 ・しかし、Deepにすると性能が向上せずに悪くなることが知られている。(下のグラフ) ・これらはOverfittingによるものではなく、勾配が0になったり、発散したりするため。 これを解決しようというのがこの論文の趣旨 Residual Network 普通のNetwork $H(x)$が所望するmapping(求めたい変換) 2 weight layerをH(x)になるように学習する Residual Network ・$x$をshortcutして足し合わせると$H(
Deep Learning系のライブラリを試すのが流行っていますが、Exampleを動かすのはいいとしても、いざ実際のケースで使おうとするとうまくいかないことがよくあります。 なんとか動かしてみたけれど精度が出ない、データの加工の仕方が悪いのか、モデルのパラメーターが悪いのか、原因がぜんぜんわからん・・・という事態を乗り越えるには、やはり仕組みに対する理解が必要になってきます。 そんなわけで、本編では画像の用意という一番最初のスタートラインから、Chainerで実装したCNNを学習させるところまで、行うべき手順とその理由を解説していきたいと思います。 前段として理論編を書いていますが、ここではライブラリなどで設定しているパラメーターが、理論編の側とどのようにマッチするのかについても見ていきたいと思います。 なお、今回紹介するノウハウは下記リポジトリにまとめています。画像認識を行う際に役立て
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く