タグ

画像処理に関するtorutoのブックマーク (244)

  • 画像処理 (1) シーム・カービング

    画像を拡大・縮小する場合、通常利用される方法として、「最近傍法(Nearest Neighbour)」や「線形補間法(Bilinear Interpolation)」に代表されるサンプル補間法があることを以前紹介しました。最近、サンプル補間法とは概念のまったく異なる画像の拡大・縮小方法として「シーム・カービング(Seam Carving)」が注目され、すでに実用的なアプリケーションも誕生しています。この手法は、画像のリサイズ処理だけに限らず、特定のオブジェクトの除外や再配置など、応用範囲が非常に広いため、これからも様々な目的に応用される可能性があるアルゴリズムです。今回は、この「シーム・カービング」について紹介したいと思います。 ブラウザは、世界中に散らばった様々なコンテンツを閲覧することができる便利なツールです。その中で、画像や動画を表示したり、場合によっては音楽を聴くこともできますが、

  • Fast face clustering based on shot similarity for browsing video | CiNii Research

    JaLC IRDB Crossref DataCite NDL NDL-Digital RUDA JDCat NINJAL CiNii Articles CiNii Books CiNii Dissertations DBpedia Nikkei BP KAKEN Integbio MDR PubMed LSDB Archive 極地研ADS 極地研学術DB 公共データカタログ ムーンショット型研究開発事業

  • スパース行列(SparseMat)の使い方2:超解像 | opencv.jp

    SparseMatをつかった超解像処理を行います.このデモンストレーションは下記論文の実装になっています.詳細は以下論文やビデオをご覧ください. Farsiu, S.,Robinson, D., Elad, M., Milanfar, P.”Fast and robust multiframe super resolution,” IEEETrans.ImageProcessing 13 (2004)1327?1344. C++ //Super resolution with Bilateral Total Variation //Implimentation of a paper; //Farsiu, S.,Robinson, D., Elad, M., Milanfar, P."Fast and robust multiframe super resolution," IEEETran

  • データ改変を伴っていても瞬時に違法コピー動画を発見できる映像識別技術をNECが開発

    NECが、インターネット上で違法にアップロードされたコピー動画を瞬時に自動検出可能な映像識別技術を開発したそうです。 YouTubeなど動画共有サービスの普及によって、映像のプロではなくても簡単に動画を広く公開することができるようになった昨今ですが、そこで問題となっているのは自分の著作物ではないのに勝手にアップロードされている違法コピー動画。対策としては目視確認や、コンテンツに電子透かしを埋め込んでおくなどの手法がありますが、膨大な量になると対策が難しく、また、短くカットされたり改変されたりすると発見が困難でした。 しかし、今回開発された技術では、単なるコピーだけではなく、データ改変が伴っていても高速・高精度に検出が可能になっているとのこと。 詳細は以下から。 瞬時に違法コピー動画を発見できる映像識別技術を開発(2010年5月7日): プレスリリース | NEC この技術では、オリジナルの

    データ改変を伴っていても瞬時に違法コピー動画を発見できる映像識別技術をNECが開発
    toruto
    toruto 2010/05/07
    この技術は、4月19日~23日にドイツのドレスデンで開催された第92回ISO/IEC JTC 1/SC 29/WG 11(通称MPEG)会議においてISO/IEC 15938-3/Amd.4最終規格案として承認されており、今後、ITTFによる加盟国投票を経て、9月頃正式な規格案とし
  • 1年で70億枚の顔写真をスキャンしたFace.comが顔認識APIを無料で一般公開

    Indian startup Zypp Electric plans to use fresh investment from Japanese oil and energy conglomerate ENEOS to take its EV rental service into Southeast Asia early next year, TechCrunch has…

    1年で70億枚の顔写真をスキャンしたFace.comが顔認識APIを無料で一般公開
  • AnimeFaceでピカソPの絵から顔検出できるか試してみた

    NiVEプラグイン化されたAnimeFaceを使用して、ピカソPのsm8733025の顔検出をしてみました。

    AnimeFaceでピカソPの絵から顔検出できるか試してみた
  • x264 - Wikipedia

    x264(エックスニーロクヨン)は、動画をH.264 (MPEG-4 AVC) ビデオストリームへエンコードするためのプログラムである。GPLライセンスの下でリリースされている。 x264にはコマンドラインプログラムの通称x264cliとライブラリのlibx264が含まれている。コマンドラインプログラムはコンパイルオプションによってはFFmpegを利用したデコードに対応している。また、libx264を利用した多数のフロントエンドやプラグインなどが存在する(VLC・HandBrake・FFmpeg・ffdshow・Windows VFW向けのx264vfw・x264guiなど)。 特徴[編集] フリーでオープンソース 高画質 MSU MPEG-4 AVC/H.264 Video Codec Comparison 2011 において商用やWebMなどの他のエンコードも含め最も高画質・高圧縮率と

    toruto
    toruto 2010/04/29
    H.264
  • 本物と見違えるような画像補間を実現するパスフレームワーク手法 - A Successful Failure

    SIGGRAPH2009で発表された"Moving Gradients: A Path-Based Method for Plausible Image Interpolation"という論文*1では、2枚の連続する入力画像を与えると、その間のフレームを極めて自然に補間生成する新たな手法を提案している。 図1 図1は両端の入力画像A, Bから間の3フレームを生成した例を示している。生成する補間フレーム数は任意で何枚でも生成可能であり、極めて自然な補間が実現できている。この例の驚くべきところは、制約条件を有する複雑で柔らかな局所変形を含む自然な補間画像が、全自動で生成されている点である。モーフィング処理では対応点を一点一点指定する必要があるが、ここで必要なのは2つの画像を選択するだけだ。 生成される補間画像の品質は素晴らしく、またアイデアもシンプルで興味深いので、原論文を参照して手法の概要

    本物と見違えるような画像補間を実現するパスフレームワーク手法 - A Successful Failure
  • 特徴点検出器を作ってライブラリに追加した - デー

    前々からアニメ顔類似検索のbag of featuresで使っている特徴点の決め方がイラストにあまり合っていない気がしていたけど、実装がすごく面倒くさそうだったのでやらなかった。しかし、最近SURFに特許があることが発覚して、SURFを使っている意味は特にないなーと思ったので、満足のいくものをつくろう思ったのであった。(ただ特許は気にせずにやる) ということで、こんなのができた(クリックで拡大)。 結構速いし、スケールの変化、回転、ある程度のゆがみには大体対応できている。対応点の決定は、点の特徴ベクトルが一番近い点と二番目に近い点を取って、ふたつの特徴ベクトルの距離の差を確信度として、確信度が高いもののみマッチングしたことにして表示している。 SIFTやSURFに比べると点多すぎだろ(なぜ渦巻きに…)と思うかもしれないけど、これは僕なりにイラストの特性とかbag of featuresで使

    特徴点検出器を作ってライブラリに追加した - デー
  • Visual Wordsを用いた類似画像検索 - 人工知能に関する断創録

    類似画像検索システムを作ろう(2009/10/3) 3日で作る高速特定物体認識システム(2009/10/18) に続くOpenCVプロジェクト第三弾です。今回は、上の二つをふまえてカラーヒストグラムではなく、局所特徴量(SIFTやSURF)を用いた類似画像検索を試してみます。局所特徴量はグレースケール画像から抽出するため、カラーヒストグラムと違って色は見ていません。画像の模様(テクスチャ)で類似性を判定します。 実験環境は、Windows 7、MinGW C++コンパイラ、OpenCV2.0、Python 2.5です。EclipseでMinGWを使う方法はEclipseでOpenCV(2009/10/16)を参照してください。Visual C++にはないディレクトリスキャン関数を一部使っているのでVisual C++を使う場合は、少しだけ修正が必要です。 Bag-of-Visual Wor

    Visual Wordsを用いた類似画像検索 - 人工知能に関する断創録
  • 矩形領域への画像出力について - nursの日記

    やあみんな、今日はちょっと当たり前そうなんだけど、書き残しておきたい話をするぞ。まあ、StretchBlt絡みと言えばStretchBlt絡みの話題かな。 ある決まったサイズの矩形領域があって、任意のサイズ・縦横比の画像全体を、このサイズ固定の矩形領域に描画して見せたいなんてことがあると思う。サイズ固定の矩形領域の使い方としては当然、入力の画像の全体をできるだけ大きく見せたいから、矩形領域の縦か横かを、フルに使って画像を描画したいと思うよな。つまり、どんな画像がきても、矩形領域の中における表示は、この2パターンのいずれかになっているということだ。上の画像は、ちょうどそのシチュエーションを表したものだ。 なので最終的に画像を貼り付ける処理としては、 矩形領域の高さがフルに使われるように画像の高さを縮小し、画像の幅も、画像の高さと同じ比率だけ縮小するか、 矩形領域の幅がフルに使われるように画像

    矩形領域への画像出力について - nursの日記
  • bayonを使って画像からbag-of-keypointsを求める - のんびり読書日記

    クラスタリングツールbayonとOpenCVを使って、画像からbag-of-keypointsを特徴量として抽出する手順について書きたいと思います。bag-of-keypointsは自然言語処理でよく使用されるbag-of-words(文章を単語の集合で表現したもの)と同じようなもので、画像中の局所的な特徴量(keypoint)の集合で画像の特徴を表します。bag-of-wordsと同じ形式ですので言語処理と同じように、bag-of-keypointsデータを使ってクラスタリングツールに適用したり、転置インデックスに載せたりといったことが可能になります。 今回は画像からbag-of-keypointsを取り出し、そのデータを使ってbayonで画像集合をクラスタリングするところまでやってみます。ちなみに画像処理は完全に素人で、この記事もニワカ知識で書いているので、間違っている箇所やもっと効率

    bayonを使って画像からbag-of-keypointsを求める - のんびり読書日記
  • [機械学習] bayon+LSHIKITを使って画像クラスタリング - tsubosakaの日記

    bayonを使って画像からbag-of-keypointsを求める - のんびり読書日記の記事を読んで、クラスタリングを行う際の入力データを作るために文献[1]にある方法が利用できると思って実験してみた。 局所特徴量を持ったデータの取扱い 画像データの分類などを行う際にSIFTのような画像中の特徴点(keypoint)を抽出するということがよく行われる。 例えばSIFTを用いる場合は各keypointは128次元のベクトルとなり、画像ごとにいくつかのkeypointが抽出される。ここで抽出されるkeypointの数は画像ごとに異なる。このため、画像間の類似性を比較するのは困難である。 これに対するアプローチとしては一つは画像中の特徴点同士の全対比較を行う、もしくはマッチングをとるという方法が挙げられるがこれは計算量が非常に大きい。 別の方法としてヒストグラムを利用するという方法がある。これ

    [機械学習] bayon+LSHIKITを使って画像クラスタリング - tsubosakaの日記
  • PFIセミナー資料: 研究開発2009 - DO++

    昨日ありました、PFIでのセミナーでの発表資料です。 研究開発のチームの紹介の後に、2009年サーベイした論文の中で面白かった論文を 機械学習、データ構造、画像処理で紹介してます 紹介した話は - Multi-class CW (Multi-class Confidence Weighted Learning,) - AROW (Adaptive Regularization Of Weight Vector) - Online-EM algorithm - 全備簡潔木 (Fully-functional Succinct Tree) - 圧縮連想配列 (compressed function) - PatchMatch です。 #資料中の簡潔木の表現方法のDFUDSの紹介でtxも使用と書いてあるのは、公開しているtxでは、 LOUDSのみをつかっていますので正確ではありませんでした。これ

    PFIセミナー資料: 研究開発2009 - DO++
  • 画像処理・理解・マルチメディアのブックマーク

    ■ はじめに 筆者の出身は画像処理・画像理解の分野であり,博士論文では人工知能的手法を用いた画像認識・理解を扱った.現在でもその興味は変わらないが,最近は,映像メディアの解析,映像メディアの取得,構築,利用に関する研究に力を入れるようになってきた.稿では,このようなスタンスで,画像解析からマルチメディアまで,有用だと思われるリンクを並べてみた. ■ 画像計測・処理・認識・理解のコミュニティ □ 国内学会・会議 活発に情報発信が行われており,一つ一つを稿で紹介する必要はないのだが,多くの研究会や分科会があり,網羅的に調べようとすると手間がかかる.そのため,筆者が関係しているもの,また,良く目にするものをリストアップしてみた.しかし,全てを網羅しているわけではないことに注意されたい. 電子情報通信学会: http://www.ieice.org/ PRMU(パターン認識と理解)研究会(ht

  • 3日で作る高速特定物体認識システム (5) 物体モデルデータベースの作成 - 人工知能に関する断創録

    3日で作る高速特定物体認識システム (4) 特徴点のマッチング(2009/11/2)のつづきです。 今回は、高速特定物体認識システムの物体モデルデータベースを作成してみます。クエリとして与えた画像が何かはこの物体モデルデータベースを検索することで認識できるようになります。特定物体認識では、クエリとして与えた画像が物体モデルデータベースにあらかじめ登録されていないとまず認識できません(局所特徴量を用いるので多少のスケール変化や回転などには対応できますが)。忘れてしまった方は物体認識システムの構成(2009/10/18)を参照してください。 画像データセットの準備 自分で撮影した画像を登録できるようにしてもよかったのですが、大量の画像を撮影するのは面倒なのでおなじみのCaltech101の画像セットを用いて物体モデルを作成します。 類似画像検索システムを作ろう(2009/10/3)の画像データ

    3日で作る高速特定物体認識システム (5) 物体モデルデータベースの作成 - 人工知能に関する断創録
  • 午夜性刺激在线视频免费,国产成人欧美一区二区三区,亚洲成AV人片不卡无码,亚洲一区二区三区无码中文字幕,国产精品三级一区二区,亚洲中文字幕无码天然素人在线,久久大香伊蕉在人线国产h

    午夜性刺激在线视频免费,国产成人欧美一区二区三区,亚洲成AV人片不卡无码,亚洲一区二区三区无码中文字幕,国产精品三级一区二区,亚洲中文字幕无码天然素人在线,久久大香伊蕉在人线国产h,国产成人无码国产亚洲,最近更新 在线 中文字幕,欧美精品高清在线观看爱美,四虎精品成人免费视频�,亚洲中久无码永久在线观看软件,国精品午夜福利视频不卡麻豆,av无码一区二区三区

  • 実験用イメージデータセットの収集 - lonerの日記

    研究室では、これまでGeneric Object Recognition用のデータセット(多量のアノテーション済の画像ファイル)としてCorel Image Dataを使用していたわけなんですが、商用画像というのと、Corel社が販売を止めてしまったということもあってか、他のデータセットも試してみようと検討中。候補になっているのは、以下。 Caltech101(Caltech256)。その名の通り、California Institute of TechnologyでFei-Fei Li等によって集められたカテゴリ分けされた画像セット。カテゴリを決め、Google Image Search+人力で探した画像。このデータの問題点は、フォアグランド・オブジェクトにだけ、しかも1つのオブジェクトにしかキーワードが付いてない。ライセンスも不明。 The PASCAL Object Recognit

    実験用イメージデータセットの収集 - lonerの日記
  • MNISTをSURFを使ったbag of keypointsで - デー

    とにかく早く動かす欲で半分くらい想像でやってしまったので、誤りがあれば指摘などなど。 SURFとは! SURFは回転とスケールに不変な特徴点検出アルゴリズムで、keypoints(点の位置とスケール)とdescriptor(正規化された勾配のヒストグラム)を得ることができる。 このdescriptorsを画像の局所的な(画像パッチの)特徴ベクトルと考えると、画像に含まれるSURF Descriptorの集合を(十分大きければ)画像のidentificationとすることができる。 大まかな内容 MNISTの学習データからSURF Descriptorを抽出する ベクトル量子化のためのコードブックを作成する 抽出したSURF Descriptorをk個にクラスタリングする 各クラスの重心をコードベクトルとし、クラスをvisual-wordという単語の単位にする 画像をグローバルな単語の集合と

  • (前回〜10/25) - デー

    破滅してる。欲を出していろいろよくしようと思ったけど、まじめに考えるといろいろありすぎてちょっとヤバイ。 まあこれは勉強のチャンスであるので、もう少しやってみようと思う。 考えが変わったところ 人率にこだわっていたけど、これは教師ありでやるべきだし、教師データは今地道に作っている(昨日がんばって60人分のラベル付き顔[髪型]画像各人100〜130枚作った。もとデータはあと150人分あるので健全な精神と引き換えに教師データを作る)ので、それができてからやろうと思った。 類似検索は、人とかどうでもよくて、人間の感覚で似てると思うのを表示するようにしようと思う。この感覚は心理的には少し難しくて、たとえば知っている同じキャラ(人)ならあまり似ていないシーンの画像でも似ていると強く思ってしまうことがあるので、「顔が似ている」といったことは書かなくて、「髪形のみ似ている」とか「魂の色が似ている」

    (前回〜10/25) - デー