タグ

deeplearningに関するfullmatedのブックマーク (25)

  • 存在しない“アイドル顔”を自動生成 京大発ベンチャーがAI開発

    京都のスタートアップ企業であるデータグリッドは、クリエイターの仕事AIに委ねる「クリエイティブAI人工知能)」の開発を進めている。“何かを作り出すAI”の1つとして、アイドルの顔を「生成」するAIを作成し、今後の新しいAIの利用法を提案する。 昨今の女性アイドルの顔というと、大勢が踊り歌うユニットなどの印象から、私たち人間は「こんなイメージかな?」と思い起こすことができる。そうしたいわゆる“アイドル顔”を、ディープラーニングによって無数のバリエーションで作り上げる。京都大学発のスタートアップ企業、データグリッド(京都市左京区)が開発した「アイドル自動生成AI」が提供する機能がそれだ。架空のアイドルの顔を高解像度・高品質で自動生成し、同社のWebサイトでは生成した多くのアイドルの顔を連続的に変化させた様子を動画で紹介している。変化するどの顔も確かにアイドルらしい顔つきをしているが、それぞ

    存在しない“アイドル顔”を自動生成 京大発ベンチャーがAI開発
  • はじめてのGAN

    今回はGAN(Generative Adversarial Network)を解説していきます。 GANは“Deep Learning”というの著者でもあるIan Goodfellowが考案したモデルです。NIPS 2016でもGANのチュートリアルが行われるなど非常に注目を集めている分野で、次々に論文が出てきています。 また、QuoraのセッションでYann LeCunが、この10年の機械学習で最も面白いアイディアと述べていたりもします。 “The most interesting idea in the last 10 years in ML, in my opinion.” –Yann LeCun GANは聞いたことはあるけれどあまり追えてないという人向けに基礎から解説していきたいと思います。それでは順に見ていきましょう。 目次 基礎理論 DCGAN 実装 論文紹介 まとめ 基礎理

    はじめてのGAN
  • 「ゼロから作るディープラーニング」を動画でまとめている人がいたので紹介します。|Dai

    ゼロから作るディープラーニングというが昔はやったが、それをYoutubeで解説している神動画を見つけたので紹介。スライドとコードで両方解説しているようだ。 Deep Learning 第1回:まずは環境構築だ!Pythonの実行環境と各種ライブラリの説明をしている。ただ、これは以前紹介したGoogle Colaboratoryで用意できそう。 この動画で学ぶこと ・環境構築の方法 ・numpyの基礎 Deep Learning 第2回:パーセプトロンを実装しよう以下の内容を学ぶ。 パーセプトロン ニューロンモデル AND回路 OR回路 XAND回路 XOR回路

    「ゼロから作るディープラーニング」を動画でまとめている人がいたので紹介します。|Dai
  • ディープラーニングの限界 | POSTD

    (注:2017/04/08、いただいたフィードバックを元に翻訳を修正いたしました。 @liaoyuanw ) この記事は、私の著書 『Deep Learning with PythonPythonを使ったディープラーニング)』 (Manning Publications刊)の第9章2部を編集したものです。現状のディープラーニングの限界とその将来に関する2つのシリーズ記事の一部です。 既にディープラーニングに深く親しんでいる人を対象にしています(例:著書の1章から8章を読んだ人)。読者に相当の予備知識があるものと想定して書かれたものです。 ディープラーニング: 幾何学的観察 ディープラーニングに関して何より驚かされるのは、そのシンプルさです。10年前は、機械認識の問題において、勾配降下法で訓練したシンプルなパラメトリックモデルを使い、これほど見事な結果に到達するなど誰も想像しませんでした。

    ディープラーニングの限界 | POSTD
  • ディープラーニングの力で結月ゆかりの声になってみた

    目次 (背景)自分の声を結月ゆかりにしたい。前回はあまりクオリティが良くなかったので、手法を変えて質を上げたい。 (手法)声質変換を、低音質変換と高音質化の二段階に分けてそれぞれ学習させた。画像分野で有名なモデルを使った。 (結果)性能が飛躍的に向上し、かなり聞き取れるものになった。 (考察)精度はまだ改善の余地があり、多対多声質変換にすることで精度が向上すると考えられる。今回の結果を論文化したい。 デモ動画 背景多くの人が可愛い女の子になりたいと思っている。 CG技術やモーションキャプチャ技術の向上により、姿は女の子に仮想化できるようになってきた。 しかし、声に関してはまだまだ課題が多い。 声質変換は「遅延」「音質」「複数話者」などの難しい課題がある。 今回は、自分の声を結月ゆかりにするための、低遅延で実現可能な高音質声質変換を目指した。 手法大きく分けて3つの工夫をした。 画像ディープ

  • やさしい深層学習の原理 | TickTack World

    それでは、最先端分野である人工知能で利用されている、「深層学習(ディープラーニング)」について、その動作原理を簡単に説明しましょう。この深層学習は、現在最もホットな研究分野なので、毎週のように新しい研究成果が発表されています。このため、ここでの情報も半年も経つと陳腐化してしまう恐れがあります。この「やさしい深層学習」は、できるだけ原理的な概念に留めますので、その点はご了解ください。 深層学習(Deep Learning)とは、機械学習の1種である「ニューラルネットワーク(Neural Network)」の階層を深めたアルゴリズムです。このニューラルネットワークとは、生物の脳の神経細胞(ニューロン)をモデルとしたアルゴリズムで、1940年代から始まる長い研究の歴史があります。 上の図は、このニューラルネットワークの構造を示しています。ニューラルネットワークは、「入力層」、「隠れ層」、「出力層

    やさしい深層学習の原理 | TickTack World
  • 2017年のディープラーニング論文100選 - Qiita

    これはFujitsu Advent Calendar 2017の18日目の記事です。 掲載内容は富士通グループを代表するものではありません。ただし、これまでの取り組みが評価されて、富士通がQiitaに正式参加することになりました[リンク]。なお、内容の正確性には注意を払っていますが、無保証です。 はじめに この記事では今年発表されたディープラーニング論文(ArXivでの発表時期、発表された国際会議が2017年開催またはジャーナル掲載が2017年のもの)から私が個人的に重要だと思った論文を収集しています。また、2016年末ごろの論文も重要なものは採用しています。 以下の投稿も合わせてご覧ください。 2016年のディープラーニング論文100選[リンク] ディープラーニングにとっての2017年 2017年のディープラーニング技術は主に画像系技術で革新的な進歩がありました。それをけん引したのは敵対

    2017年のディープラーニング論文100選 - Qiita
  • 分からんこと多すぎ

    大昔に書いた下書きを発見したので公開 論文Fast algorithms for sparse principal component analysis based on Rayleigh quotient iteration Volodymyr Kuleshov著 概要疎行列の固有ベクトルを、レイリー商を使う事により高速に解く。 著者によると、既存のSparse Principal Component Analysis(sPCA)と比較しても、勝るとも劣らない精度で、1桁か2桁くらい計算量が少ないそうだ。 理屈上は、行列の行数(=列数)をn、非ゼロ要素の数をkとして、イテレーション毎に ちなみに既存手法には、べき乗法(PM)とか、半正定値計画問題(SDP)とか、Greedyな探索によるものとか、色々あるらしい。 10000×10000の疎行列(半正定値対象。ランクは3。密度は3*100*

    分からんこと多すぎ
  • ディープラーニングの応用のための具体的方針まとめ - HELLO CYBERNETICS

    はじめに 目標の設定と指標の決定 目標の設定 指標の決定 評価指標に対する最低限の知識 機械学習における知識(補足) ニューラルネットワークの学習 最初に使うニューラルネットワーク 時間的にも空間的にも独立である複数の特徴量を持つデータ 空間の局所的な構造に意味のある多次元配列データ(例えば画像) 時間的な変動に意味のあるデータ(例えば音声、自然言語) ニューラルネットワークの細かい設定 ユニットの数と層の数 正則化 活性化関数 ドロップアウト バッチ正規化 学習の早期終了 性能が出ない場合 データの追加収集 ニューラルネットの設定をいじる 用いるニューラルネット自体を変更する 新たなニューラルネットワークの考案 コードを書くにあたって データ成形 結果を記録するコード フレームワークの利用 フレームワークの選択 ChainerとPyTorch TensorFlow Keras 最後に は

    ディープラーニングの応用のための具体的方針まとめ - HELLO CYBERNETICS
  • chainerのバージョンごとの違い(2016年1月19日現在) - studylog/北の雲

    あと数日で1.6がやってくるchainer。 1.0~1.6までのバージョンごとの差について簡単にまとめてみます。 大きく分けると3つのグループ 1.0 1.1 1.2 黎明期バージョン 1.3 1.4 CuPy導入 1.5 1.6 色々とパワーアップした現世代 特にこれからchainer始める人はこのグループ分けを覚えておいた方がいいです。グループが違うと中身がかなり違うので他の人が書いたサンプルを参考にしたりフォーラムで質問する時は注意が必要です。 同じグループ同士のアップグレードはそこそこ楽ですが、1.2→1.3や、1.4→1.5はそれなりに大変。 バージョンの見分け方 良さげなサンプルコードを見つけて使ってみたいけど対応しているバージョンがわからない、という方向けに簡単な見分け方を。 1.5、1.6 chainer.links chainer.Chain serializers.s

    chainerのバージョンごとの違い(2016年1月19日現在) - studylog/北の雲
  • Adit Deshpande – Engineering at Forward | UCLA CS '19

    The hottest topic in tech + the most exciting event in sports

    Adit Deshpande – Engineering at Forward | UCLA CS '19
  • ディープラーニングは動的ネットワーク構築が主流になるか? TensorFlow Fold登場 - HELLO CYBERNETICS

    動的ネットワーク構築と静的ネットワーク構築 静的ネットワーク構築 動的ネットワーク構築 動的なTensorFlowが登場 動的なネットワーク構築を行うライブラリ TensorFlow Foldの登場 どれがいいのか 動的ネットワーク構築と静的ネットワーク構築 静的ネットワーク構築 まず「静的ネットワーク構築」が基になります。 これはニューラルネットワークの構造を先に決めて、その後にデータを流して計算を行います。俗に言う「Define and Run」というやつで、非常に分かりやすい方法です。 動的ネットワーク構築 「動的ネットワーク構築」は、データを流すと同時にニューラルネットワークの構造を決めていきます。データが流れる毎にニューラルネットワークの構造が変わっても構いません。俗に言う「Define by Run」によって実現されています。 (参考) ChainerのDefine by R

    ディープラーニングは動的ネットワーク構築が主流になるか? TensorFlow Fold登場 - HELLO CYBERNETICS
  • 為替をDeepLearningで予測してみた話 - Qiita

    概要 現在の日付を$T$とすると、$T+1$から$T+30$までにおける日次価格の単純移動平均をDeepLearningを使って予測し、 ロングポジションを持った(もしくはショート)時の価格より、予測した移動平均を上(下)回れば利益確定するようなシミュレーション売買を行いました。また、30日保持したら強制的に手仕舞いするようにします。 エントリーは日時毎に残高があれば全力で行うようにします。 ※オレンジのラインが30日後の30日単純移動平均になります。緑がx軸の日付時点における為替価格です。 使用したDLフレームワーク chainer ver1.3~1.5 ちょうどver1.5で互換性が大幅に変更になって、対応するのが大変でした。 2017/8現在はver2.0.2になっているみたいですね。 使用データ みずほヒストリカルデータ https://www.mizuhobank.co.jp/r

    為替をDeepLearningで予測してみた話 - Qiita
  • Deep Learningで「いらすとや風人間画像生成モデル」を作った話(DCGAN、Wasserstein GAN) - ぬいぐるみライフ?

    フリー素材サイト「いらすとや」に出てくる人間風の画像を自動生成するモデルをDeep Learningで作りました。実装にはGoogle製のライブラリ「TensorFlow」と機械学習アルゴリズムの「DCGAN」「Wasserstein GAN」を用いています。 以下は生成された人間画像のうちそれなりにきれいなものの一例です。頬のところが赤くなっていて何となくいらすとやの特徴を捉えられていると思います。 「いらすとや」とは? 実装した手法の概要 DCGAN、Wasserstein GANについて Generator Discriminator GeneratorとDiscriminatorの学習 学習や実装の詳細 Generator、Discriminatorのネットワーク構成やパラメーター 訓練データ その他 学習経過 モデルを検証する 入力にバイアスを掛けていい画像を出やすくする ま

    Deep Learningで「いらすとや風人間画像生成モデル」を作った話(DCGAN、Wasserstein GAN) - ぬいぐるみライフ?
  • Googleの並列ログ解析向け言語「Sawzall」が公開されたので使ってみた | Preferred Research Blog

    Rapidly Realizing Practical Applications of Cutting-edge Technologies

    Googleの並列ログ解析向け言語「Sawzall」が公開されたので使ってみた | Preferred Research Blog
  • 東大のディープラーニング公開講座がヤバくていろいろ考えさせられた件|加藤貞顕

    1カ月ほど前から、東京大学の松尾研のディープラーニング公開講座に行っている。 ネットで募集していたのであわてて申し込んだら、とんでもない数の人が集まっていて熱気がすごい。学部生、院生、社会人、あわせて300人以上が同時に授業を受けている。 初回こそ、人工知能概論のような話だったけれど、2回目以降はものすごい速度で授業が進む。そして宿題の量と質もすごい。2回と3回目の授業だけで、普通の学校の半年分くらいの内容になっている気がする。東大、ほんとにやべーよ。 毎回、授業の冒頭は「ふんふん、そうか」とはじまるのだけれど、終わり間近に大量のサンプルコードを見せられて、それをすごい勢いで説明され、最後にゴツイ宿題が出る。授業終了後は、ポカーンってなる(授業中にぜんぶ理解しているひと、どれくらいいるんだろう)。 友人の物書堂の社長の広瀬くん(iPhone辞書アプリ開発の大御所!)も、たまたまいっしょに講

    東大のディープラーニング公開講座がヤバくていろいろ考えさせられた件|加藤貞顕
  • 機は熟した!グラフ構造に対するDeep Learning、Graph Convolutionのご紹介 - ABEJA Tech Blog

    はじめまして。ABEJAでResearcherをやらせていただいている白川です。 先日、化合物の物性推定をDeep Learningをつかって従来手法より300,000倍高速に処理するという論文がでました([1], [2])。この論文の手法は、Graph Convolutionというグラフ上に定義されたConvolution演算がベースとなっています。物性推定に限らず、グラフ解析全般を Deep Learning で上手にこなせるようになれば、Deep Learningのアプリケーションの幅がぐっと拡がり、さらなるイノベーションが起きそうな予感がします。 ICMLやNIPSなどの機械学習系の主要国際会議でも数年前からGraph Convolutionについての論文がちらほら出現しはじめており、とくに最近その勢いが増してきている印象があります。個人的にも最近(前から?)にわかにグラフづいてい

    機は熟した!グラフ構造に対するDeep Learning、Graph Convolutionのご紹介 - ABEJA Tech Blog
  • ディープラーニングでアスキーアートを作る - Qiita

    はじめまして。 業はアスキーアート (以下AA) 職人のOsciiArtといいます (業ではない)。 AlphaGo対イ・セドルの対局を見て、「僕もディープラーニングで神AA職人を倒したい!」と思い、pythonをインストールしてちょうど一年の成果を書いていきます。 コードはこちらにアップしてあります。 https://github.com/OsciiArt/DeepAA ここで扱うアスキーアートとは ここで扱うAAとは、 こういうの……↓ ではなく、こういうの……↓ でもなく、こういうの……↓ ともちょっと違って、こういうの……↓ ではもちろんなく、こういうのです。↓ このような、線画を文字を作って再現した「トレースAA」と呼ばれるタイプのAAをここでは扱います。 詳細はwikipediaの「アスキーアート」のページの「プロポーショナルフォント」の項を参照してください。 wikipe

    ディープラーニングでアスキーアートを作る - Qiita
  • 深層強化学習ライブラリChainerRL - Preferred Networks Research & Development

    Chainerを使った深層強化学習ライブラリChainerRLを公開しました. https://github.com/pfnet/chainerrl PFNエンジニアの藤田です.社内でChainerを使って実装していた深層強化学習アルゴリズムを”ChainerRL”というライブラリとしてまとめて公開しました.RLはReinforcement Learning(強化学習)の略です.以下のような最近の深層強化学習アルゴリズムを共通のインタフェースで使えるよう実装してまとめています. Deep Q-Network (Mnih et al., 2015) Double DQN (Hasselt et al., 2016) Normalized Advantage Function (Gu et al., 2016) (Persistent) Advantage Learning (Bellemar

    深層強化学習ライブラリChainerRL - Preferred Networks Research & Development
  • #PaintsChainer イラストを着色する人工知能がすごい 作ったのは29歳のこんな人

    Search, watch, and cook every single Tasty recipe and video ever - all in one place! News, Politics, Culture, Life, Entertainment, and more. Stories that matter to you.

    #PaintsChainer イラストを着色する人工知能がすごい 作ったのは29歳のこんな人