ドットインストール代表のライフハックブログ
画像内に映り込んだ所望のオブジェクトを排除し、違和感の無い画像を生成するシーン補完技術に関しては近年複数の研究成果が発表されている。しかし中でも2007年のSIGGRAPHにて米カーネギメロン大のJames HaysとAlexei A. Efrosが発表した手法*1はブレークスルーとなりうる画期的なものだ。 論より証拠、早速適用例を見てみよう。本エントリで利用する画像はPresentationからの引用である。元画像の中から邪魔なオブジェクト等の隠蔽すべき領域を指定すると、その領域が補完された画像が自動的に生成される。 アルゴリズム 効果は抜群だがアイデア自体は単純なものだ。Web上には莫大な数量の画像がアップされており、今や対象となる画像の類似画像を一瞬にして大量に検索することができる。そこで、検索された類似画像で隠蔽領域を完全に置き換えてしまうことで違和感の無い補完画像を生成するのだ。
Microsoft Live Labsの「Photosynth」は米国時間8月20日夜、技術デモの状態から次の段階に進み、一般ユーザー向けのウェブサービスとして提供されることとなった。 これによりユーザーは、複数の写真を合成して擬似的な3D環境を作成する同技術を、自分のデジタルカメラや携帯電話で撮影し、自分のコンピュータ上で加工した写真に適用することができるようになる。これまで写真の合成には、特別に構成されたサーバアレイによる何週間もの処理が必要だった。最新バージョンでは、Microsoftはこの処理時間を、写真をアップロードする時間程度に短縮することに成功している。 Microsoftはユーザーに対し、Photosynthコレクション用の20Gバイトのオンラインストレージを提供している。Photosynth担当製品マネージャーであるJoshua Edwards氏によると、これは、約150
Compute 3D shape and scene from a single image Feng Han, and Song-Chun Zhu 入力(2次元画像) ↓ 3次元再構成 入力(2次元画像) ↓ 3次元再構成 これはすごい。 ベイズ推定の枠組みで、prior knowledge として物の smoothness とか空間内での stability *1を置いてやって解空間を探索したらそれらしい3次元再構成が出来ましたと。 この論文では prior knowledge は人が与えているようだけど、基本的に自然界で経験しうる感覚入力のデータをがんがん投入して prior knowledge を(データドリブンで)形成できるようにすれば、日常に出てくるような不良設定問題はだいたい解けるようになるのではないか。というか脳がやっていることというのは結局そういうことかな? もしそうなら
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く