Philosophy We strive to create an environment conducive to many different types of research across many different time scales and levels of risk. Learn more about our Philosophy Learn more
LINE株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。 LINEヤフー Tech Blog こんにちは。LINE Fukuoka でデータ分析やその基盤作りをしている tkengo です。この記事は LINE Advent Calendar 2016 の 12 日目の記事です。 2016 年の 11 月下旬、LINE Fukuoka で 2 日間の社内ハッカソンが開催されました。その時にいくつかのチームが結成され、IoT や VR、機械学習など、それぞれのチームで挑戦的なプロダクトが作られ、大いに盛り上がりました。今日は、その時に私たちのチームが作ったディープニューラルネットワークを使った以下のようなリアルタイム画風変換アプリケーションのお話をしたいと思います。 ※ちょっとわかりにくいですが、下側のスマホのカメラに映
In this post I’ll briefly go through my experience of coding and training real-time style transfer models in Pytorch. The work is heavily based on Abhishek Kadian’s implementation, which works perfectly Fine. I’ve made some modification both for fun and to be more familiar with Pytorch. The model uses the method described in Perceptual Losses for Real-Time Style Transfer and Super-Resolution along
In my previous post I discussed the goal of transferring the style of one image onto the content of another. I gave an outline of the paper A Neural Algorithm of Artistic Style which formulated this task as an optimisation problem that could be solved using gradient descent. One of the drawbacks to this approach is the time taken to generate styled images. For each style transfer that we want to g
We consider image transformation problems, where an input image is transformed into an output image. Recent methods for such problems typically train feed-forward convolutional neural networks using a \emph{per-pixel} loss between the output and ground-truth images. Parallel work has shown that high-quality images can be generated by defining and optimizing \emph{perceptual} loss functions based o
・Abstract Gatyらの研究はCNNによる画風転写の力を示した。 この研究を改善、拡張する方法が提案されているが、包括的なサーベイは存在しない。 本稿は、現在の進展と未解決問題について議論する。 1. Introduction 省略。 2. A Taxonomy of Neural Style Transfer Methods 本章では、Style Tranferの方法の分類を行う。 分類は2つあり、1つ目はDescriptive Methodsであり、画像内の画素を反復的に直接更新する。 2つ目は、Generative Methodsであり、最初に生成モデルを反復的に最適化し、順伝播により画像を生成する。 2.1. Descriptive Neural Methods Based On Image Iteration Descriptive Methodの目的は、styleize
画像のスタイルを変換するアルゴリズムとしてGatysらの"A Neural Algorithm of Artistic Style"が知られていますが、これを高速に行う手法が現れました。 以下のつぶやきを見て驚愕したので早速調べました。 testing real-time style transfer published in the last week with #chainer and #openFrameworks pic.twitter.com/KrQaN8TSs9 — Yusuke Tomoto (@_mayfa) 2016年4月7日 2016/4/12追記 Yusuke Tomoto氏による実装が公開されました。Chainerを使っています。 https://github.com/yusuketomoto/chainer-fast-neuralstyle 実装の元になった論文は
写真をピカソやゴッホのようなスタイルに変換できるアプリPrismaが話題になりました。多くの人は、ディープラーニングが使われているかどうかとは関係なく、純粋にアプリを楽しんでいるのだと思います。 このようにディープラーニングを使った人気アプリが出てくるということは非常に良いことではないかと思います。今回は、Prismaの背景技術(と思われるもの)を解説していきます。 目次 基礎理論 実装 改善 高速化 まとめ 基礎理論 ディープラーニングを使ったアート系の論文は色々と出ていますが、一番基礎となる論文はGatys et al. 2016ではないかと思います。プレプリント版は2015年8月に出ています。 この論文は記事として取り上げられて話題になっていたりもしたので、知っている人も多いのではないかと思います。この章では、スタイル変換の基礎となるこの論文を解説していきます。 Gatys et a
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く