タグ

DeepLearningに関するkoda3のブックマーク (169)

  • Keras.js – 機械学習をブラウザ上で実行できるJSライブラリ、GPUパワーを使用 【@maskin】 | TechWave(テックウェーブ)

    1990年代初頭から記者としてまた起業家としてITスタートアップ業界のハードウェアからソフトウェアの事業創出に関わる。シリコンバレーやEU等でのスタートアップを経験。日ではネットエイジ等に所属、大手企業の新規事業創出に協力。ブログやSNSLINEなどの誕生から普及成長までを最前線で見てきた生き字引として注目される。通信キャリアのニュースポータルの創業デスクとして数億PV事業に。世界最大IT系メディア(スペイン)の元日編集長、World Innovation Lab(WiL)などを経て、現在、スタートアップ支援側の取り組みに注力中。 Pythonで書かれたディープラーニング用ニューラルネットワークライブラリ「Keras」を、ウェブブラウザ上で実行するJavaScriptライブラリ「Keras.js」が登場した。 そもそも「Keras」は、Googleが提供するオープンソースの機械学習

    Keras.js – 機械学習をブラウザ上で実行できるJSライブラリ、GPUパワーを使用 【@maskin】 | TechWave(テックウェーブ)
  • ディープラーニングで簡単に自動テストスクリプトが作れる「Magic Pod」 | 品質向上ブログ

    今日は、今話題のAI(人工知能)技術「ディープラーニング」を使い、誰でも簡単にモバイルアプリの画面自動テストスクリプトが作成できるWebサービスのお話です。 ※2017年7月24日よりオープンβ版を提供開始しました! AppiumやSeleniumのような画面を自動操作するテストツールはとても便利ですが、一方で、こうしたツールを利用していないプロジェクトもたくさんあります。何がツールの導入を妨げているのでしょう? 筆者は、次の2つがとりわけ大きな問題だと考えています。 システムの内部情報をある程度理解しないと、テストスクリプトを書くこと・読むこと・編集することが難しく、それなりのスキルが必要。 テストスクリプトの作成に時間がかかりすぎる。特に、読みやすく変更に強いスクリプトを作成しようとすると、かなりの手間がかかる。 これらの問題を、ディープラーニングによる画像認識を使って解決しようとして

    ディープラーニングで簡単に自動テストスクリプトが作れる「Magic Pod」 | 品質向上ブログ
  • Sparkで利用できるDeep Learningフレームワークまとめ - Gunosyデータ分析ブログ

    こんにちは、Gunosyデータ分析部に所属している森です。 主な担当業務は記事配信アルゴリズムの改善、ログ基盤運用です。 最近良く聞く音楽はOne Direction - Live While We're Youngです。 記事では、Sparkで利用できるDeep Learningフレームワークをまとめました。 GunosyではChainerで畳み込みニューラルネットワークを応用し、ユーザーのデモグラフィック推定を行っています。 WebDB Forum 2016 gunosy from Hiroaki Kudo Chainer以外にも多数のDeep LearningフレームワークがPythonを中心に数多く存在します。 TensorFlow, Keras, Caffe, Theanoなどなど。どのフレームワークが優れているかという回答は状況に応じて変わりますが、Pythonを使用する大

    Sparkで利用できるDeep Learningフレームワークまとめ - Gunosyデータ分析ブログ
  • DeepLearningで上司を認識して画面を隠す - Qiita

    背景 仕事をしているとき、業務に関係ない情報を閲覧していることって誰でもありますよね? そんなときに背後にボスが忍び寄っていると気まずい思いをします。もちろん急いで画面を切り替えれば良いのですが、そういう動作は逆に怪しまれることになりますし、集中しているときは気がつかないこともあります。そこで怪しまれずに画面を切り替えるために、ボスが近づいてきたことを自動的に認識して画面を隠すシステムを作ってみました。 具体的にはKerasを用いてボスの顔を機械学習し、カメラを用いて近づいてきたことを認識して画面を切り替えています。 ミッション ミッションはボスが近づいてきたら自動的に画面を切り替えることです。 状況は以下のような感じです。 ボスの席から私の席まではだいたい6,7mくらいです。ボスが席をたってから、4,5秒で私の席に到達します。したがって、この間に画面を隠す必要があるわけです。時間的余裕は

    DeepLearningで上司を認識して画面を隠す - Qiita
  • 【ディープラーニング】少ないデータで効率よく学習させる方法:準備編 - ニートの言葉

    こんにちは。あんどう(@t_andou)です。 ディープラーニングによる学習精度を上げるためには大量のデータが必要と言われていますが、学習済みのモデルを流用することで少ないデータから効率よく・高精度な学習をさせることが可能な場合があります。 それが Fine Tuning と言われるものです。 具体的なやり方については↓こちらの記事がとてもわかりやすかったので、著者のFrancois Cholletさんより許可を頂き、翻訳させていただきます。 Building powerful image classification models using very little data 注意:意訳しています。間違っているところも多々あると思いますので、ご指摘いただけると幸いです。 文が長いので3回程度に分けて投稿する予定です。 データの準備・データの水増し 1から小さな畳み込みニューラルネットワ

    【ディープラーニング】少ないデータで効率よく学習させる方法:準備編 - ニートの言葉
  • 講義まとめ:自然言語処理のための深層学習(CS224d) - Qiita

    CS224d(自然言語処理のための深層学習)はスタンフォード大のRichard Socherが2015年から教えている講義で、動画やスライドなどの講義資料と演習問題がウェブ上で無料で公開されています。 CS224d: Deep Learning for Natural Language Processing 会社の勉強会で週1回半年程度かけて講義動画と演習を終えたため、勉強したことを簡単にまとめてみたいと思います。 なぜ今なのか? 深層学習(Deep Learning)は2000年代後半のRBMやauto-encoderなどの教師なし学習から流行が始まりましたが、それらを教師あり学習の事前学習に使うアプローチは徐々に衰退し、2010年代前半には画像認識のための畳み込みネットワークがImageNetコンテストのおかげで爆発的に有名になりました。詳しくありませんが音声認識の分野でも既存の複雑な

    講義まとめ:自然言語処理のための深層学習(CS224d) - Qiita
  • Chainerのサンプルコードを集めてみた(メモ) - あおのたすのブログ

    Chainerのサンプルコードは色んな所で公開されていますが、 一箇所にまとまっている所が少ない気がしたので、個人用にまとめておきます。 ここに載ってないサンプルコードがありましたら、 コメント欄か@aonotasまで教えて下さい!! 誰得かは分かりませんが,gitにもメモ用に作りました。 github.com 適宜更新していく予定です。 Chainer OfficialのTwitterアカウントが主な情報源です。 Official wiki page (some examples list) こちらの公式Wikiも有用です。 他のサイト様では chainerのサンプルコードを集めてみた(チュートリアルも追加) - studylog/北の雲 がサンプルコードのまとめとしては良いかもしれません。 更新履歴 (2016.08.19) 記事作成 (2016.09.31) Fully Convol

    Chainerのサンプルコードを集めてみた(メモ) - あおのたすのブログ
  • DeNAにおける機械学習・深層学習活用

    2. Copyright (C) DeNA Co.,Ltd. All Rights Reserved. ⾃⼰紹介 n  藤川和樹 ⁃  所属 •  DeNA システム部 分析推進部 分析基盤グループ ⁃  2014.4 新卒でDeNAへ⼊社(3年⽬) •  これまでの主な業務内容 ⁃  ソーシャルゲームの各種課題分析、それに伴うデータ基盤の整備 ⁃  mobageプラットフォーム・キュレーションサービスにおける パーソナライズ・レコメンドシステムの開発 ⁃  mobageプラットフォーム上における対話型⼈⼯知能システムの開発 n  経歴 ⁃  2014.3 神⼾⼤学⼤学院 システム情報⼯学研究科 修了 •  研究分野 ⁃  深層学習、⾃然⾔語処理 •  テーマ ⁃  深層学習による複数⽂書の圧縮表現の獲得と株価動向推定への応⽤

    DeNAにおける機械学習・深層学習活用
  • 再帰型ニューラルネットワーク: RNN入門 - Qiita

    再帰型ニューラルネットワーク(RNN)は自然言語処理の分野で高い成果をあげ、現在最も注目されているアルゴリズムの一つです。しかしながら、その人気が先走りして実際にRNNがどのように動くのか、構築するのかを解説する書籍は限られているように思います。この投稿はその部分にフォーカスを当てて友人のDenny(WildMLブログの著者)と一緒に書きました。 さてRNNベースの言語モデルを解説したいと思います。言語モデルの用途は2つあります。1つ目は文章が実際にどのくらいの確率で現れるのかのスコアリングをすること。このスコアは文法的に、セマンティクス的に正しいかどうかの判断基準となります。このようなモデルは例えば機械翻訳などに使われています。次に2つ目ですが、言語モデルは新たなテキストを生成することができる点 (ちなみに個人的にこちらの方がよりCoolな用途だと思っています)。また、英語ですがAndr

    再帰型ニューラルネットワーク: RNN入門 - Qiita
  • Pythonによる機械学習入門 ~Deep Learningに挑戦~

    2. ⽇の内容 l機械学習 lプログラミング⾔語Python lPythonでの機械学習 l各種⼿法の⽐較 lDeep Learningの利⽤ (Chainer / Keras) lまとめ サンプルコードはgithubにあります https://github.com/yasutomo57jp/ssii2016_tutorial https://github.com/yasutomo57jp/deeplearning_samples 3. 機械学習とは l データから規則性や知識を⾒つけること l 出来ること Ø 回帰 ²関数のパラメータを推定する Ø クラス分類 ²クラスを分類する基準,ルールを⾒つける Ø クラスタリング ²データを複数の集合に分割するルールを⾒つける データに潜む規則性 知識を発⾒ ⼤量の データ 機械学習

    Pythonによる機械学習入門 ~Deep Learningに挑戦~
  • Deep Learningで遊ぶ(2): オンラインニュース人気度+ベイズ最適化によるパラメータチューニング - 渋谷駅前で働くデータサイエンティストのブログ

    追記(2016年8月22日) {rBayesianOptimization}の使い方を間違えていて、この記事の下部では実際にはテスト誤差ではなくトレーニング誤差を評価してしまっていますorz 実際にはScore返値にholdoutを入れるのが正解です。別に{rBayesianOptimization}単体で取り上げた記事を書きましたので、正しい使い方はそちらをお読みください。 Deep Learningをだらだらと実践してみるこのシリーズ、前回は分類だったので今回は回帰でやってみようと思います。お題はUCI ML repositoryの"Online News Popularity"です。とあるサイトに掲載されたオンラインニュース記事がそれぞれどれくらいシェア(おそらくSNS類に)されたかを、様々な特徴量と合わせて収めた39644行×61列のデータセットです。 元のニュース記事が非公開であ

    Deep Learningで遊ぶ(2): オンラインニュース人気度+ベイズ最適化によるパラメータチューニング - 渋谷駅前で働くデータサイエンティストのブログ
  • 機械学習/深層学習について調べてみた。 | ARAYA Inc.

    しかし依然として『深層学習』に再挑戦するのは難しいと感じていました。そこでグーグルでひたすらディープラーニング関係の情報を収集し続けました。ということで今回は学習の過程で参考にさせていただいた資料をQ&A形式で紹介していこうと思います。

  • ディープラーニングをKerasというフレームワーク上で行う - 備忘録 blog

    はじめに 機械学習、特にディープラーニングが近頃(といってもだいぶ前の話になりますが)盛んになっています。CaffeやChainerといったフレームワークもありますが、特にGoogleがTensorflowでtensorboardと呼ばれる簡単に使える可視化基盤を提供して有名になったのを機に、Tensorflowで機械学習を始めてみたという方も少なくないと思います。 しかしTensorflowは低レイヤーな行列演算、ベクトル演算を記述するには適していますが、機械学習モデルの記述という面では書きにくいことも確かで、何かが動いていることは確かめられたけれど自分で何かをするには敷居が高かったです。例えば、Tensorflowでsoftmax層を定義するには、以下のコードを書く必要があります。 # softmax, i.e. softmax(WX + b) with tf.variable_sco

    ディープラーニングをKerasというフレームワーク上で行う - 備忘録 blog
  • 深層ニューラルネットワーク�による知識の自動獲得・推論

    2. 自然言語処理とは • 言葉を操る賢いコンピュータを作る • 応用: 情報検索,機械翻訳,質問応答,自動要 約,対話生成,評判分析,SNS分析,… • 基礎: 品詞タグ付け(形態素解析),チャンキ ング,固有表現抽出,構文解析,共参照解析, 意味役割付与,… • 多くのタスクは「入力𝑥𝑥から出力�𝑦𝑦を予測」 �𝑦𝑦 = argmax 𝑦𝑦∈𝑌𝑌 𝑃𝑃(𝑦𝑦|𝑥𝑥) ※確率ではないモデルもあります 2016-06-30 深層ニューラルネットワークによる知識の自動獲得・推論 2 3. 単語列からラベル: ̂𝑦𝑦 = argmax 𝑦𝑦∈𝑌𝑌 𝑃𝑃(𝑦𝑦|𝒙𝒙) 2016-06-30 深層ニューラルネットワークによる知識の自動獲得・推論 3 The movie is the best I’ve ever seen! The movie

    深層ニューラルネットワーク�による知識の自動獲得・推論
  • 人工知能学会全国大会2016 画像解析寄りの深層学習関連発表のまとめ - LIFULL Creators Blog

    こんにちは。おうちハッカー@リッテルラボラトリーの石田です。 2016年6月6日~9日に開催された第30回人工知能学会全国大会に行ってきました。私は画像系及び深層学習に興味があるので、特に画像系と深層学習系セッションを見て回りました。 そこで主に自分が見たセッションを元に、今年の人工知能学会の画像に関わる深層学習の発表をまとめてみました。 私が見た・読んだ範囲で、「各分野にCNNを適用した研究」「画像系深層学習の理論的な研究」「画像ではないが気になった深層学習の研究 」に分けて紹介します。 自分で実際に見た発表については、おすすめ度をつけています。個人の主観によるものですので、弊社の見解とは関係がありません。 ではどうぞ。 各分野にCNNを適用した研究 ここでは、画像系で大きな成果を上げているCNN(畳み込みニューラルネットワーク)を、各分野の画像解析に適用してみた研究を紹介します。 画像

    人工知能学会全国大会2016 画像解析寄りの深層学習関連発表のまとめ - LIFULL Creators Blog
  • Facebook、「DeepText」を発表--ディープラーニングに基づくテキスト理解エンジン

    Facebookは米国時間6月1日、「DeepText」を発表した。ディープラーニングに基づくこのツールは、同ソーシャルネットワーク上に存在する膨大な量の非構造化データの意味を理解するために同社が利用しているものである。 Facebookによると、このテキスト理解エンジンは、人間に近い正確さで1秒あたり1000件の投稿に含まれるテキストのコンテキストを理解することができ、20カ国語以上の言語に対応するという。 「Facebook上におけるテキストのさまざまな使用方法を理解することは、ユーザーが求めるコンテンツをさらに表示する上でも、スパムのような望ましくないコンテンツを除去する上でも、われわれの製品におけるユーザーのエクスペリエンスの向上につながる」と同社はブログ投稿で述べた。 DeepTextは、「Facebook Messenger」などの一部のアプリケーションで既に利用されている。例

    Facebook、「DeepText」を発表--ディープラーニングに基づくテキスト理解エンジン
  • Deep LearningとNLPの最新論文の情報を集める方法 - あおのたすのブログ

    (5/29 追記:Deep Learning のGoogleグループコミュニティを追加) (6/8 追記:松尾研究室の勉強会ページを追加) (6/13 追記:neural language notesを追加) はじめまして。@aonotas(あおのたす)です。 Deep Learningと自然言語処理に興味があります。 好きなフレームワークはChainerです。 さて、Deep Learningが自然言語処理のタスクでも応用されています。 ACLやEMNLPなど国際会議でもタイトルに「Neural」が入ったものが多いですが、arxivにも査読前の論文がよくアップロードされています。 (スピードが早くて追いつくの大変ですよねorz) そこで最新のDeep Learningの論文の集め方を紹介したいと思います。(あくまで私個人の方法です。皆さんどうしてるか教えてもらえると嬉しいです。) 面白い

    Deep LearningとNLPの最新論文の情報を集める方法 - あおのたすのブログ
  • 自然言語処理と深層学習の最先端

    第4回 JustTechTalk の発表資料

    自然言語処理と深層学習の最先端
  • 現在のDNNにおける未解決問題

    脳型計算機雑談会での資料です 1. 大きなNNの学習はなぜ一様に成功するか 2. 敵対的生成ネットワーク(GAN)の解析 3. seq2seqによる可変長情報の埋め込み 4. Ladder Networkの解析 Read less

    現在のDNNにおける未解決問題
  • Tensorflowのサンプルを理解してみる。(初心者向け) - 7rpn’s blog: うわああああな日常

    Googleが出したTensorflow,盛り上がり具合がやばいですね。 githubのスター数とかを見ていると,スタンダードであるChainerとかCaffeとかを(盛り上がり具合だけは)軽く越えてしまった感じ。 というわけで,MNISTの(畳み込みしているほうの)サンプルをざっと読んでみました。 備忘録がてらメモしようかな,と思ってブログにしてみます。 自分は初心者なので,まぁそのレベルで色々注をつけて行こうと思います。 Tensorflowの良かったところ 最初に,Tensorflowの良かったところを。 大規模処理で並列化とかが楽らしいんですけど,正直よく分からないです笑 コードを見て思ったのは,必要な部分だけが厳密に書かれているなーと思いました。 低い次元の記述する必要のないものはしっかり隠して,必要な記述はちゃんと書かれているってのが自分みたいな初学者には良いと思います。Cha

    Tensorflowのサンプルを理解してみる。(初心者向け) - 7rpn’s blog: うわああああな日常