トップへ戻る
カレーが食べたい
joisino.hatenablog.com
先日、長いようで短かった実験がついに終わったので記録を残しておきます。 はじめに 京都大学情報学科の計算機科学コースでは計算機科学実験及演習(以下、実験)という必修科目が 2 回生前期 / 後期、 3 回生前期 / 後期の計 4 つあります。 実験 1 はプログラミングの入門みたいな内容 実験 2 はマリオ AI の作成と電子回路 実験 3 は CPU 製作とインタプリタ製作 実験 4 はいくつかの分野から選択 という感じです。 僕たち 2015 年入学の学生から実験の内容が少し変わったのですが、実験 3 の CPU 製作は昔からあるみたいです。 CPU を製作する学生実験といえば某大学某学科の CPU 実験が有名で知っている人も多いと思います。 CPU 実験でググるとすごい人の製作記がたくさん出てきて面白いのですが、いまググるとこの記事が霞んで見えるので読み終わってから調べてください(参
いくら待てどゆゆ式二期の発表がないのでそろそろ僕の櫟井唯ちゃん資源が枯渇してしまいそうです そこで今話題のニューラルネットワークに唯ちゃんの画像を無限に生成してもらうことにしました とりあえずこちらがデモです(設定の読み込みにかなり時間がかかります) Mugen Yuichan ランダムに生成したサンプルです 一応はっきりと唯ちゃんだと分かる 使ったのはDenoising Autoencoder(DAE) ふつうのAutoencoderの入力にノイズを加えて学習させるだけです(今回はガウス分布のノイズを加えました) ノイズ除去に使えたり生成モデルを作れたりします DAEについては深層学習 (機械学習プロフェッショナルシリーズ)を参考にしました 作り方 まずはゆゆ式の本編から唯ちゃんの顔部分だけ切り抜きます この作業はこのページを参考にさせていただきました ご注文はDeep Learning
joisino.hatenablog.com ▲昔の記事 前回の試みから二年以上経ちましたがまだゆゆ式二期は発表されません。(*1) 二期が発表されないためこの記事のタイトルものんのんびよりさんから拝借することになりました。 やはり今話題のディープラーニングでなんとかするしかなさそうです。 三行で説明して Progressive Growing GAN (Tero Karras et. al. 2017) を chainer で実装して櫟井唯さん(ゆゆ式)の画像を生成しました。 こんな感じのができました。(下の方にスクロールするともっとたくさんあります。) github.com レポジトリです。 Progressive Growing GAN とは 浅いネットワークで小さい画像を生成・識別することからはじめ、段階的にネットワークと画像を大きくしていく手法です。太古に流行った AE の事前学
この記事は ゆゆ式 Advent Calendar 2017 - Adventar 24 日目の記事です。 はじめに joisino.hatenablog.com 前回、唯の画像を無限に生成することに(部分的に)成功した訳ですが、画像ができたら今度は声が欲しくなってきます。 そこで、 [1710.08969] Efficiently Trainable Text-to-Speech System Based on Deep Convolutional Networks with Guided Attention を chainer で実装して、唯の声で学習させてみました。 レポジトリ github.com レポジトリです。 結果 正直そこまでクオリティの高い声は生成できませんでした。 学習データが足りないのが一番の原因のようです。詳しい考察や解説は後回しにしてとりあえず結果を載せていきます
皆さんは自分の研究成果をどうやって広めていますか? ひとつの研究は実働時間だけでも最低数ヶ月、全出版プロセスを考えると一年単位で取り組むこととなります。そうして手塩にかけて育てた研究が誰にも認知されない、というのはなんとも悲しいことです。 僕が所属している機械学習分野は人工知能ブームにより、日々洪水のように論文が発表され、その中で存在感を発揮するのは難しくなっています。 一昔前であれば、名のある国際会議やジャーナルに採択されればそれなりに存在感を発揮できたようですが、今では一つの会議に数千本の論文が採択されるため、採択された後にも競争に勝たなければ目立てないという事態になっています。 論文のクオリティを上げて名のある国際会議に採択されるだけでは不十分、となれば一体どうすれば良いでしょう。 有望な策は無く、天に祈って運に任せる、というのが最も一般的なパターンではないでしょうか。広く読まれる論
Dilated Convolution を chainer で実装しました。 Dilated Convolution の説明 Dilated Convolution は、フィルターとの積を取る相手の間隔をあける畳み込みのことです。 例えば、以下のような画像において、 12 を中心に 3 x 3 の普通の畳み込みフィルターを適用すると、 6, 7, 8, 11, 12, 13, 16, 17, 18 との積を取って和を取ると思います。 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 3 x 3 の dilate = 2 の Dilated Convolution フィルターを 12 を中心に適用すると、0, 2, 4, 10, 12, 14, 20, 22, 24 と 1 つおきに取ってきて、それらに 3 x
大学の実験で必要になって実装したのでメモしておきます。 Convolutional LSTM の説明 名前で完全にネタバレしてる感が否めないですが、Convolutional LSTM とは、LSTM の結合を全結合から畳み込みに変更したものです。 例えば画像を RNN に食わすときに、位置情報が失われないので便利です。 動画の次フレームの予測や天気予報などに使えます。 具体的には、以下のような構造になっています。 x は要素ごとの掛け算、 * は畳み込みを表します。 通常の LSTM との差分を赤で書きました。といっても、一部の掛け算が畳み込みになっているだけですが。 peephole の部分だけ要素ごとの掛け算になっていることに注意してください。 実装 Convolutinoal LSTM と、それをビルディングブロックとして使って画像予測のネットワークを実装しました。 github.
はじめに IOI 2013 オーストラリア大会に Art Class という問題があります。 この問題は、画像データが与えられるのでその画像が 様式1(新造形主義の現代芸術) 様式2(印象派の風景画) 様式3(表現派のアクション・ペインティング) 様式4(カラーフィールド・ペインティング) のいずれであるかを判定する問題です。 正答率が 0.9 以上になると満点が得られます。 IOI にしては珍しい機械学習的な問題であることと、ジャッジが壊れて結果が返ってこなくなったことなどで有名なので、知っている人も多いかもしれません。 問題文やデータは、 http://www.ioinformatics.org/locations/ioi13/contest/ から手に入ります。 普通の解法 例えば 3x3 と 65x65 の大きさの窓を作って分散を計算して、それらを使って手で決定木を作るなどすると解
このページを最初にブックマークしてみませんか?
『ジョイジョイジョイ』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く