cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。 http://xpaperchallenge.org/cv/Read less
以下の記事を参考にして書いてます。 ・How to Try CLIP: OpenAI's Zero-Shot Image Classifier 1. はじめに今年はじめに、OpenAIはコンピュータービジョンの世界に爆弾を投下しました。2つの新しい画期的なモデルは、巨大なGPT3風のTransformerモデルが画像分野に侵入することを示唆しています。「DALL-E」(テキストプロンプトから画像を生成できるモデル)が多くの注目を集めましたが、この投稿では「CLIP」に焦点を当てます。「CLIP」は間違いなくより重要なZero-shot画像分類器になります。 これまで「画像分類」は、ターゲットクラスを適切に表す数百〜数千、さらには数百万のラベル付き画像のカスタムデータセットを収集し、それを使用して教師あり分類モデル(通常はCNN)を学習していました。このアプローチ(および「物体検出」のような
Abstract We capitalize on large amounts of unlabeled video in order to learn a model of scene dynamics for both video recognition tasks (e.g. action classification) and video generation tasks (e.g. future prediction). We propose a generative adversarial network for video with a spatio-temporal convolutional architecture that untangles the scene's foreground from the background. Experiments suggest
For robots to navigate the world, they need to be able to make reasonable assumptions about their surroundings and what might happen during a sequence of events. One way that humans come to learn these things is through sound. For infants, poking and prodding objects is not just fun; some studies suggest that it’s actually how they develop an intuitive theory of physics. Could it be that we can ge
はじめに こんにちは。あんどう(@t_andou)です。 前回は人工知能の技術として最近話題のディープラーニング(Deep Learning)で何ができるのかという一例として、モノクロ映画のカラー化をやってみました。 前回の記事はこちら andoo.hatenablog.com 今回もディープラーニングを使った事例の紹介です。 今回紹介するのは画風変換と呼ばれるものです。英語ではStyle Transfer と言うようです。 画風変換とは ある画像(インプット画像)を別の画像(スタイル画像)の画風で描き変えることです。 もしかしたら間違ってるかもしれません。でも、そんな感じです。 技術的に細かいことはこちらをご覧ください GitHub - jcjohnson/neural-style: Torch implementation of neural style algorithm 例えば:(
If you are not redirected automatically, follow the link to CVF open access
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く