RNN「これってもしかして」 CNN「わたしたちのモデルが・・・」 「「入れ替わってる~~~!?」」 というわけでQRNN、QUASI-RECURRENT NEURAL NETWORKSとは、RNNの機構をCNNで「疑似的(QUASI)に」実装するというモデルです。これにより、既存のRNN(というかLSTM)が抱えていたいくつかの問題の解決を試みています。 元論文は以下となります。 QUASI-RECURRENT NEURAL NETWORKS 作者によるブログ 作者の方のブログにChainerのサンプルコードがあったので、それを元にTensorFlowで実装してみました。早く動かしたい!という方はこちらを見てみてください。 icoxfog417/tensorflow_qrnn (Starを頂ければ励みになります m(_ _)m) 本記事では、この研究のモチベーションとそのアプローチについ
CP分解の次はTucker分解を導出して実装する。丁寧にTucker分解の導出を説明してる文献(Web含め)が全然なかったので、自分で書く。CP分解についてはある程度知ってる前提とする。CP分解についてはこちらから。 yamaguchiyuto.hatenablog.com まとめ Tucker分解とは ALSでTucker分解の更新式の導出 PythonでTucker分解を実装 人工データを使って実験 Tucker分解とは Tucker分解は、テンソルを1つのテンソル(コアテンソルと呼ぶ)と、それぞれのモードに対して一つずつの行列に分解する。 上の図の例では、もとのテンソルのサイズは IxJxK だけど、これをコアテンソルのサイズの RxSxT (R<=I, S<=J, T<=K) まで小さくしている。また、あとで説明するけど、行列 U、V、W は全て直行行列となるように分解する。このコ
2016 - 12 - 01 自己符号化器を用いたDCGANの事前学習 注意:まだ研究中なのでこのページの内容は間違っていたりしてると思います。 今さらですがDCGANに手を出してみました。 ただ試すだけでは味気ないので少しアレンジしてみました。 データはsugyanさんのアイドル画像デー タセット を使いました。 1.前置き 昨年の今頃にDCGAN(Deep Convolutional Generative Adversarial Networks)が話題となっていました。 DCGANとは、一様乱数の100次元ベクトルからきれいな画像を生成するgeneratorを作る、というものです。 例えばDCGANを使えば、 アニメ顔を生成 したり、 アイドルの顔を生成 したりできます。 DCGANの詳しい内容は こちらのページ をご覧ください。 ところで、 こちらのページ によれば、DCGANは学
先日、いくつかのキーワードを指定するだけでAIがその内容となる情報を自動収集して記事を書いてくれる「Articoolo」というWebツールを見つけました。 articoolo.com AIが自動で記事を生成してくれるこのツールは、リライトにも対応しています。 すごいですね。。このツールを多くの人が使うようになることは現状では考えにくいですが、もしかするとメインコンテンツ以外(サテライトサイトなど)で使う業者など出てくるかもしれませんね。 と、色々と調べていたら…リオ五輪ですでに採用されていたようで驚きです!知りませんでした。。 www.nikkei.com では、今回はこのAIが自動で記事を書いてくれるツール「Articoolo」の使い方などをまとめてみたいと思います。 Articooloの使い方 まず、このツールを利用するためにはユーザー登録が必要となります。または、facebookかt
サービスに機械学習技術(例えばSVM)を入れる際に、「この機械学習技術は本番サービスに投入しても大丈夫なものか?」を考える基準がまとまっていると人に説明するときに便利だなとふと思ったのでまとめてみました。散々言われ尽くされている話だとは思います。 前提 考慮に入る採用基準 予測精度 (コードの)メンテナンスの容易性 計算オーダー 学習時 予測時 挙動のコントロールのしやすさ/予測説明性の容易さ チューニングの必要性 その他 まとめ 前提 機械学習がプロダクトの主要な武器になる(例えば最近話題になっているGoogle翻訳におけるNMT)ものではなく、サービスにデータがまずあり、機械学習でデータを活用することにより、そのサービスを支えていくようなものを前提に考えています(例えばCGMサービスのスパム判定)。また、投稿内容は私個人の意見であり、所属組織を代表するものではありませんとお断りしておき
Nintendo Switch 2: Everything we know about the coming release
■ Deep Leaningを使った検索エンジン - 無職になり数ヶ月が過ぎました。 - 働くということに関していろいろ疑問に思っています。 ■モチベーション: 時間に余裕ができたので、キンドル書籍のランキング・検索サイトをずっとコーディングしていました。検索機能を実装するにあたって、かつての大手の検索エンジンが実装していた単語クエリをキーとしてURLとTFIDFの重みをバリューとした巨大なKVSを構築中です。 key:単語 -> val: [ {URL: http://foo.bar.com, WEIGHT:0.8}, {URL: http://alice.bob, WEIGHT:0.2},…] みたいなデータ構造です。 ランキングは単純でTFIDFが重い順にランキングされます。次の段階として星の数、センチメント分析の結果を考慮したランキングを行いたいと思っています。 この方法は検索時の
When it comes to neural network design, the trend in the past few years has pointed in one direction: deeper. Whereas the state of the art only a few years ago consisted of networks which were roughly twelve layers deep, it is now not surprising to come across networks which are hundreds of layers deep. This move hasn’t just consisted of greater depth for depths sake. For many applications, the mo
[WIP: 時間あるときに書きます] 先日発表された論文の適当訳. 実験の部分などは面倒くさいので訳してないです. ANNは変数とかデータ構造とかうまく扱えない. コンピュータのように外部メモリを持たせることで, これを解決する. 実験では, 最短経路問題を解かせるとか, 家系図の人物間の関係を答えるなどができた. 重要なのは, こういった問題を, アルゴリズム(ダイクストラ法etc)を設計する必要なしに, データドリブンにend-to-endで学習し解くことができるという点. https://deepmind.com/blog/differentiable-neural-computers/ http://www.nature.com/nature/journal/vaop/ncurrent/full/nature20101.html 関連(してそうなとこ) https://arxiv.
こんにちは.@yos1up と申します.好きな食べ物は,緑色のキノコです. 2016/10/12に DeepMind が Nature に投稿した論文,Hybrid computing using a neural network with dynamic external memory にて提案されているニューラルネットワークモデル DNC (Differentiable Neural Computers) を,大急ぎで Chainer で実装してみました. DNC について DNC は,先述の論文で提案された新しいニューラルネットワークで,その情報処理能力の高さが期待されています.論文中では,グラフ上の最短経路タスクやちょっとしたパズルのタスクなど,従来ニューラルネットワークでは学習不可能と思われていたタスクが DNC で学習できており,その情報処理能力の高さがうかがい知れます. DN
井出先生の「異常検知と変化検知」を読んで,自分でも試してみたいと思ったんですが,あいにくちょうどいい時系列データが手元にないなーと思ってました.そんな折,データサイエンスLT祭りの発表の中に,Fitbitデータを可視化するものがあって*1,これはちょうどいいということで試してみましたよというていのエントリになります. 異常検知と変化検知 (機械学習プロフェッショナルシリーズ) 作者: 井手剛,杉山将出版社/メーカー: 講談社発売日: 2015/08/08メディア: 単行本(ソフトカバー)この商品を含むブログ (2件) を見る Fitbitってなによ Fitbitが何かしらない人のために一応説明しておくと,最近はやりの活動量計です.私が持っているのは,心拍が取得できるタイプのやつです.風呂に入るとき以外は一日中つけっぱなしで,睡眠とか運動とかを自動で判定してくれるので,手間がかからず便利です
38 Chauncy Street Floor 8, Suite 800 Boston, MA 02111 In Downtown Boston
はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28
Darknetをインストール id:shi3z さんが、下記のブログ記事でまた何やら面白そうなものを紹介なさっていました。 http://ch.nicovideo.jp/akiba-cyberspacecowboys/blomaga/ar1116319 その名もDarknet!名前からしてヤバそうな匂いがプンプンしますw 記事でも解説していますが、インストールはターミナルでコマンドさえうてれば簡単にできます。自分の環境だと、MacでもRaspberry Piでもインストールできました。 準備は以下3行コピペするだけ。 $ git clone https://github.com/pjreddie/darknet.git $ cd darknet $ make あとは以下実行して $ ./darknet 以下のような表示が出ればインストールは(一応)成功 usage: ./darknet <
2014年に出されたVAE論文やGAN論文などに加え、 Neural Style や Deep Dream 等のCNNによる画像生成も後押しして盛り上がっている生成モデル周辺ですが、関連する論文をまとめてみました。 ちなみに、生成モデル全般に関する概要はこの辺りの資料がまとまっていてオススメです。 [1] Semi-Supervised Learning with Ladder Network [2] 生成モデルのDeep Learning [3] 深層生成モデルによる表現学習 [4] Deep Learning - Chapter 20 : Deep Generative Models [5] Open AI Blog - Generative Models [6] Building Machines that Imagine and Reason (最終更新 : 2016/9/30)
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く