kaggleやSIGNATEなどの分析コンペで使用する学習・推論パイプラインを構築する上で大切にしていること
こんにちは!たかぱい(@takapy0210)です。 本記事はKaggle Advent Calendar 2019の14日目の記事です。 昨日はkaggle masterのアライさんのKaggleコード遺産の記事でした! とても参考になり、いくつか自分の遺産にも取り入れさせていただきました。 さて本日は、以前から何回かLTさせていただいていたオレオレパイプラインを公開しましたので、簡単にご紹介できればと思います。 はじめに パイプラインについて 実行方法 補足 config.yamlについて 15_show_all_features.pyについて 作成される画像ファイルについて 終わりに はじめに 元々、パイプラインが良い感じにできたら公開したいな〜と思っていたのですが、何回かLTする中で、ありがたいことに以下のようなお声をいただき、あっ、Kaggleのアドベントカレンダーで公開すれば丁
世の中の企業がどのように機械学習を活用しているのか事例を知り、業界全体や自社の目の前の業務で抱えている課題解決に活かせるかを考えるきっかけとなるよう、52種類の事例を紹介します。 近年、AIにおける要素技術のひとつである「機械学習」を活用したニュースを耳にすることが多く、漠然と自社でも活用したほうが良いのではないかと考えている方は多いのではないでしょうか。 世の中の企業がどのように機械学習を活用しているのか事例を知り、業界全体や自社の目の前の業務で抱えている課題解決に活かせるかを考えるきっかけとなるよう、57種類の事例を紹介します。 宇宙ビジネスメディアである本サイト「宙畑(そらばたけ)」では、そんな「機械学習」にインプットするデータの一つとして、俯瞰的・継続的にデータを取得可能な「衛星データ」を提案しています。事例と合わせて、「衛星データ」の可能性にも注目いただけると幸いです。 ※202
In face recognition, triplet loss is used to learn good embeddings (or “encodings”) of faces. If you are not familiar with triplet loss, you should first learn about it by watching this coursera video from Andrew Ng’s deep learning specialization. Triplet loss is known to be difficult to implement, especially if you add the constraints of building a computational graph in TensorFlow. In this post,
AutoEncoder(AE)、Variational AutoEncoder(VAE)、Conditional Variational AutoEncoderの比較を行った。 また、実験によって潜在変数の次元数が結果に与える影響を調査した。 はじめに 最近業務でVariational AutoEncoder(VAE)を使用したいなと勝手に目論んでおります。 そこでVAEの勉強するために、VAEの実装はもちろん、その元にあるAutoEncoder(AE)と、さらに発展系であるConditional Variational AutoEncoderの実装を行い、比較を行いました。 使ったのはフレームワークはもちろん(?)chainerです!! そもそもVAEとは、GANなどと同じくDNNの生成モデルであり、画像生成を中心に現在研究が進んでいるところです。 では、GANとの大きな違いはなんなのか
はじめに 今回は、Variational Auto Encoder(VAE)を外れ値検知に応用した例を示し、その可能性について議論したい。 Variational Auto Encoderとは 詳細な理論はこことここで述べたので、今回は概略だけを示す。 観測値が与えられとき、未観測の値を生成する確率分布を求めたい。これを求めるためBayes推論で使われる変分推論(Variational Inference)を用いると、以下のような処理の流れを得る。 図の「NN」はニューラルネットワークを表す。また、標準正規分布からサンプリングしている部分を赤で示した。入力を隠れ変数に射影し(Encoder)、からを復号する(Decoder)構造を持つ。復号されたをと記した。この処理の流れをVariational Auto Encoder(VAE)と呼ぶ。「Variational」は変分推論の「変分」から来
Variational Auto Encoder nzw 2016 年 12 月 1 日 1 はじめに 深層学習における生成モデルとして Generative Adversarial Nets (GAN) と Variational Auto Encoder (VAE) [1] が主な手法として知られている.本資料では,VAE を紹介する.本資料は,提案論文 [1] とチュー トリアル資料 [2] をもとに作成した.おまけとして潜在表現が離散値を仮定したパターンと Keras による実験 結果をつけている.間違いなどがあれば指摘してほしい. 2 Variational Auto Encoder 2.1 導入 x z φ θ N 図 1 今回考えるグラフィカルモデル VAE では図 1 にあるような潜在変数を含んだグラフィカルモデルで表現される生成過程を考える.x は 1 つのデータで,i.
Google日英翻訳がNMT(ニューラルネットワークを利用した翻訳モデル)になったらしいです。 文語ベースでバリバリ翻訳してくれてるみたいで、 単語にマウスオーバー当てても単語間の対応関係がわからなくなったのはさみしいけど、 たしかに精度がよくなったような、そんな気がするぜ。 というわけで英語論文めっちゃ読んだろ。。 VAEで何かしたいなーと思ってて、時系列を扱えるVRAE周りを調べました。 Variational AutoEncoder Variational AutoEncoderをついにしっかり理解できた気がする。 はっつーさんのkeras実装ブログがとても勉強になりました。 有難うございます。 ralo23.hatenablog.com Variational AutoEncoderについてまとめたスライドを作りました。 Variational AutoEncoder from K
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く