並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 156件

新着順 人気順

画像特徴量の検索結果41 - 80 件 / 156件

  • 物体認識のための局所特徴量 SIFTと最近のアプローチ

    物体認識のための局所特徴量 SIFTと最近のアプローチ http://www.vision.cs.chubu.ac.jp/SIFT/ 藤吉 弘亘 中部大学工学部情報工学科 概要 1. SIFT(Scale-Invariant Feature Transform) 2. SIFTアプローチの高精度化 - PCA-SIFT - GLOH(Gradient Location and Orientation) 3. SIFTアプローチの高速化 - SURF(Speeded Up Robust Features) 4. 学習を用いた高速化 - Randomized Trees 5. SIFTと一般物体認識(画像分類) 1. SIFT(Scale-Invariant Feature Transform) ステレオ画像 Related Work 回転・スケール変化 照明変化等に頑健 特徴点検出 スケー

    • PLSA(確率的潜在意味解析法)|Deloitte Analytics|デロイト トーマツ グループ|Deloitte

      PLSAとLDA 昨今のビッグデータ時代の分析では高次元データを扱うことも多く、このような次元圧縮の技術が注目されているが、実際にはPLSAよりもそれと同様の手法であるLDAの方が世間的に認知されているといえるだろう。この手法はトピックモデルと呼ばれ、元々LSA (Latent Semantic Analysis)という手法があり(Deerwester et al, 1990)、それを確率的な処理をして改良したものがPLSAであり、さらにその拡張版として開発されたのがLDA (Latent Dirichlet Allocation)である(Blei et al, 2003)。 PLSAとLDAの基本的な考え方は同じだが、個々の文書における各トピックの現れやすさを表す確率が、PLSAではあくまで学習させた観測データから定義されるが、LDAではディリクレ分布という確率分布を仮定して生成させる。

        PLSA(確率的潜在意味解析法)|Deloitte Analytics|デロイト トーマツ グループ|Deloitte
      • Pythonデータサイエンスハンドブック

        第3刷正誤表 2020年12月7日更新 p.69、脚注 【誤】 https://raw.githubusercontent.com/jakevdp/PythonDataScienceHandbook/master/notebooks/data/preident_heights.csv 【正】 https://raw.githubusercontent.com/jakevdp/PythonDataScienceHandbook/master/notebooks/data/Seattle2014.csv 目次 訳者まえがき はじめに 1章 IPython:Pythonより優れた Python 1.1 シェルか notebookか 1.1.1 IPythonシェルの起動 1.1.2 Jupyter notebookの起動 1.2 IPythonのヘルプシステムとドキュメント 1.2.1 ?文字を

          Pythonデータサイエンスハンドブック
        • 顔写真から「おっぱいサイズ」を予測するサイトを作った. - Qiita

          概要 ぱいすい! ~人工知能が顔写真から、おっぱいのサイズを推定するサービス!~ http://pysui.live-on.net/ ※2017/04/07 02:27現在 サイトにつながりにくくなっております.申し訳ありません. というサイトを作りました.顔画像をアップロードするだけで,バストサイズを予測してくれるサイトを作りました.この文章では,その技術的な内容について解説します. システム概要図 システム設計 利用したソフトウェア 機械学習系 Mahotas scikit-learn scipy Webシステム Docker Alpine Linux Flask その他 BeautifulSoup pickle 解説 今回,Mahotas( http://mahotas.readthedocs.io )というライブラリを,画像の特徴量の検出に使いました.これは導入が非常に楽です.e

            顔写真から「おっぱいサイズ」を予測するサイトを作った. - Qiita
          • 有限混合分布モデルの学習に関する研究 (Web 版)

            次へ: 序 論 有限混合分布モデルの学習に関する研究 (Web 版) 赤穂 昭太郎 2001 年 3 月 15 日学位授与(博士(工学)) 序 論 研究の背景と位置づけ 論文の構成 有限混合分布とその基本的性質 定義 モジュール性 階層ベイズモデルとの関係 パラメトリック性とノンパラメトリック性 RBF ネットワークとの関係 学習における汎化と EM アルゴリズム 最尤推定 汎化と竹内の情報量規準 (TIC) 汎化バイアス 竹内の情報量規準 (TIC) 冗長性と特異性 EM アルゴリズム 一般的な特徴 一般的な定式化 独立なサンプルが与えられた時の混合分布の学習 独立な要素分布の場合 サンプルに重みがある場合 EM アルゴリズムの一般化 EM アルゴリズムの幾何学的解釈 正規混合分布の汎化バイアスの非単調性について はじめに Radial Basis Boltzmann Machine (

            • 最適な学習済みモデルが分かる?転移学習を加速させるTASK2VECの登場!

              3つの要点 ✔️タスク(データセットとラベルの組み合わせ)をベクトル化するTASK2VECの提案 ✔️タスク間の類似度を計算することにより、どの学習済みモデルを使えば良いか判断可能に ✔️様々なタスクでの実験で、TASK2VECは最適に近い学習済みモデルを予測することに成功 はじめに 転移学習をご存知でしょうか。これは学習済みモデルを再利用することにより、少ないトレーニングデータでも、性能を発揮できる学習方法です。 転移学習の例としては、ImageNetによるものが最も有名でしょう。これは画像分類のタスクを行う際に、ImageNetで学習したモデルの最終層(分類を行う層)だけを、解きたいタスクに応じて再調整する、というものです。 このような学習が上手くいく理由の1つに、ImageNetでの学習によって、良い画像特徴量を抽出する機構が出来上がっているからです。その機構を再利用すれば、トレーニ

                最適な学習済みモデルが分かる?転移学習を加速させるTASK2VECの登場!
              • トップ学会採択論文にみる、超解像ディープラーニング技術のまとめ - Qiita

                2014年から2018年までのCVPR, ECCV, ICCV などのトップ画像処理学会に採択された、ディープラーニング(DL)を用いた超解像モデルのまとめです。 TensorFlow アドベントカレンダー 8日目の記事です。 本来はtensorflowのコードも合わせて紹介したかったのですが、論文の数が増えてしまったのでそれはまた別の記事で書きます。 単画像超解像は各学会でも毎年沢山の論文が採択される主要分野ですが、2014年に初めてDLを使ったモデルが発表されたのを皮切りにその性能や適用分野を大きく広げています。この記事では主要な17の論文をざっくりと系統立ててまとめ、それぞれの論文でどのような問題にどんなテクニックでアプローチしているかを確認していきます。 パフォーマンスの大まかな推移が下記のグラフです。論文リストは記事の最後に! 数式なしで主要アーキテクチャを説明してみる DL業界

                  トップ学会採択論文にみる、超解像ディープラーニング技術のまとめ - Qiita
                • OpenFace+機械学習で視線検知 - Qiita

                  Githubでコードを公開しました!(2018.05.01 追記) https://github.com/29Takuya/EyeSight 0. 背景 こんにちは、@29Takuyaです。(プロフィールページ) この記事は、僕が学部3年(2016年後半)に授業の一環として行った活動をまとめたものです。 Pythonや機械学習の知識を身につけることが主な目的であったため、新規性などは特にありません。(暖かい目でご覧頂けると嬉しいです) 1. 目的 顔が写った一枚の画像を入力として、その人の視線がカメラを向いているかそうでないかを判定するします。(二値分類) 僕の研究室では、対話ロボットの研究を行っているのですが、視線を検知することでよりスムーズな対話が実現できるのではというのがモチベーションです。 2. 関連技術(OpenFace) 顔が写った画像と言っても、顔のサイズや位置などは様々です

                    OpenFace+機械学習で視線検知 - Qiita
                  • インターン奮闘記 ~画像とテキストとAIで何ができるか?新サービスを考える~ - Platinum Data Blog by BrainPad

                    今年の夏に実施した当社のインターンシップの取り組みをご紹介します。「画像とテキストを活用したレコメンド」をテーマに、さまざまなことに取り組んでいただきました! こんにちは、AI開発部の伊藤です。 AI開発部では、今年の夏にインターンシップ生を1名受け入れました。 私たちAI開発部は、インターンシップを企業と学生による創造的な活動の場にしたいと考えています。インターンシップを通して学生の皆さんが、アイデアを形にするプロセスの楽しさ・難しさを体験し、会社で働くことや社会的価値を生み出すことの意義を考える機会を提供したいと考えています。また、学生の皆さんの新しい発想やインターンシップでの成果から刺激をもらい、私たちも新しいサービスを開発するきっかけになるとも考えています。 今回のインターンシップは、データサイエンティストだけでなく当社のエンジニアやサービス企画担当など、さまざまなスキルセットのメ

                      インターン奮闘記 ~画像とテキストとAIで何ができるか?新サービスを考える~ - Platinum Data Blog by BrainPad
                    • ドワンゴで産まれた超人工生命LIS、ハッカソンでカンブリア紀に突入!

                      ドワンゴで産まれた超人工生命LIS、ハッカソンでカンブリア紀に突入! Childhood's End. she's rising to real life 2016.04.12 Updated by Ryo Shimizu on April 12, 2016, 02:51 am JST ニコニコ動画で知られるドワンゴは日本のベンチャー企業としては珍しく2つの専門的な学術研究機関を設置しています。 ひとつは、筆者が設立した西田友是東大名誉教授を所長とするコンピュータグラフィックスの専門研究機関、UEIリサーチであり、もう一つは、全能アーキテクチャイニシアチブの山川宏氏を所長とするドワンゴ人工知能研究所です。 全能アーキテクチャイニシアチブとは、これまで個別の要素技術としてしか発展してこなかったAI(人工知能)技術を、それぞれ視覚野、運動野、言語野、海馬などの役割をもたせ、全体として一つの人間

                        ドワンゴで産まれた超人工生命LIS、ハッカソンでカンブリア紀に突入!
                      • 第14回コンピュータビジョン勉強会@関東「CVPR2011祭り」を開催しました - takminの書きっぱなし備忘録 @はてなブログ

                        表題の通り、7/31(日)にCVPRというコンピュータビジョンの国際会議の論文読み会を開催しました。 http://atnd.org/events/17265 Togetter http://togetter.com/li/168739 以下、自分用の備忘録としてまとめておきます。 ちなみに今回は私は発表しませんでした。(名古屋で発表したので他の方に譲りましたw) 東大 原田達也先生 「CVPR2011における一般物体・シーン認識のトレンド」というタイトルで、 Unbiased Look at Dataset Bias(リンク先:PDF) What You Saw is Not What You Get: Domain Adaptation Using Asymmetric Kernel Transforms(リンク先:PDF) の二本の論文をご紹介されました。本当はもう二本くらいあったみ

                          第14回コンピュータビジョン勉強会@関東「CVPR2011祭り」を開催しました - takminの書きっぱなし備忘録 @はてなブログ
                        • Google Cloud ComposerでGPUを使ったタスクを安定稼働するために行ったこと - ZOZO TECH BLOG

                          はじめに こんにちは、ML・データ部MLOpsブロックの松岡です。 本記事ではCloud Composerのワークフローにおいて、GPUを使うタスクで発生したGoogle CloudのGPU枯渇問題と、その解決のために行った対策を紹介します。 ZOZOが運営するZOZOTOWN・WEARでは、特定の商品やコーディネート画像に含まれるアイテムの類似商品を検索する類似アイテム検索機能があります。本記事ではこの機能を画像検索と呼びます。 画像検索では類似商品の検索を高速に行うため、画像特徴量の近傍探索Indexを事前に作成しています。近傍探索Indexはワークフローを日次実行して作成しています。 このワークフローでは大きく次のように処理を行っています。 当日追加された商品の情報を取得し、商品情報をもとに商品画像を取得する。 物体検出器で商品画像から商品が存在する座標とカテゴリーを検出する。 検出

                            Google Cloud ComposerでGPUを使ったタスクを安定稼働するために行ったこと - ZOZO TECH BLOG
                          • GANの発展の歴史を振り返る!GANの包括的なサーベイ論文の紹介(アルゴリズム編)

                            3つの要点 ✔️様々な分野で使用されている 「GAN」の包括的なサーベイ論文の紹介 ✔️アルゴリズム編では、「GAN」のアルゴリズムに焦点を絞って様々なアプローチを紹介 ✔️ この記事で「GAN」の最新動向までをキャッチアップ可能 A Review on Generative Adversarial Networks: Algorithms, Theory, and Applications written by Jie Gui, Zhenan Sun, Yonggang Wen, Dacheng Tao, Jieping Ye (Submitted on 20 Jan 2020) subjects : Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG) はじめに 2014年に画像生成のためのア

                              GANの発展の歴史を振り返る!GANの包括的なサーベイ論文の紹介(アルゴリズム編)
                            • OpenCV 3で犬と猫を分類できるように学習してみる(BOW: Bag Of Visual Words, KNN: k-Nearest Neighbour, k-meansクラスタリング, KAZE) - Qiita

                              OpenCV 3で犬と猫を分類できるように学習してみる(BOW: Bag Of Visual Words, KNN: k-Nearest Neighbour, k-meansクラスタリング, KAZE)Python画像処理OpenCV機械学習 はじめに 今回は、画像の中の物体が何なのかをOpenCV3とPython3で推測してみます。 ・  = Dog or Cat ? 物体認識は、訓練フェーズとテストフェーズに分かれ、それぞれ、次のようになります。 訓練フェーズ 入力画像 特徴量抽出 特徴量をクラスタリング クラスタリングされた特徴量を集計(ヒストグラム) ヒストグラムと物体カテゴリの相関を学習 テストフェーズ 入力画像 特徴量抽出 特徴量をクラスタリング クラスタリングされた特徴量を集計(ヒストグラム) ヒストグラムがどの物体カテゴリに近いか距離を計算 今回、それぞれのステップでOpe

                                OpenCV 3で犬と猫を分類できるように学習してみる(BOW: Bag Of Visual Words, KNN: k-Nearest Neighbour, k-meansクラスタリング, KAZE) - Qiita
                              • チュートリアル 画像解析入門 ~簡単なこと、困難なこと~

                                チュートリアル 画像解析入門 ~簡単なこと、困難なこと~ 国立情報学研究所 北本 朝展 http://agora.ex.nii.ac.jp/~kitamoto/ 2 自己紹介 • 東京大学生産技術研究所(工学系研究 科博士課程) 1992-1997 • 文部省学術情報センター 1997-2000 • 国立情報学研究所 2000-2006 • 大学院ではリモートセンシング画像処理 および画像データベースの枠組みと設計 に関する研究をおこなった。 • その後はメテオインフォマティクスやデジ タルアーカイブの研究へ。 3 融合研究プロジェクト • 情報研傘テーマ – 地球環境ポータル、極限環境生物データベース • 遺伝研傘テーマ – 3D画像による体脂肪計測法 • 統数研傘テーマ – オーロラ画像処理 • 極地研傘テーマ – ?? • 育成融合テーマ – シミュレーションデータの可視化 4 画像

                                • 私がソフトウェア技術者をやめない理由 | おごちゃんの雑文

                                  私は中学生の頃に「マイコン」なんてものを知ってから、ずっとプログラムを見ている。 元々ラジオ少年だったし、放送通信関係のエンジニアをやったり、「プログラマ」という肩書なのに鉄塔を設計してたってこともあったけど、趣味や勉強期間を含めればプログラムに手を出してない期間はほとんどない。 今も零細企業をやっているけれど、やっぱりプログラムを書いている。それは、間違いなくそれが 好き だからだ。 文章を書くことは嫌いではない。ネットでgdgd世間話するのも好きだし、資金繰り表を作ることもそれなりに楽しい。もちろんエロ画像を見ることも、おねーちゃん口説くことも好きだ。でも、それらと比較しても、やっぱりプログラムを書くことが一番好きなのだ。 もちろん酒井さんが言っているように、同業者に失望したことは少なくない。その手の失望は、初めて就職した日にすらあった。「それは単に処理系がそうなっているだけでしょ」と

                                  • HLAC: 高次局所自己相関特徴 – Rest Term

                                    今回は画像特徴量の1つである高次局所自己相関特徴 (HLAC: Higher-order Local AutoCorrelation)について。 HLACは画像認識に対する基本的な要望としての位置不変性および加法性を満たすものであり、一次にとどまらない高次の相関に基づく統計的特徴量になっています。現在では様々なHLACの発展系が生まれていますが、今回はその基本となるアルゴリズムについて整理したいと思います。 基本アルゴリズム 自己相関関数を高次に拡張したN次の自己相関関数は、対象となる画像領域内の位置 r=(x, y) における画素値を f(r) とすると、その周りのN個の変位 a1, a2, …, aN に対して次式で定義されます。 基本的なHLAC特徴はこの関数に基づいた画像特徴で、実際には相関の次数を二次まで(3点相関)、変位も局所領域(3×3など)に限定して利用します。そのため変位

                                    • 【記事更新】私のブックマーク「視覚と自然言語の融合研究(Integrating Vision and Language)」 | 人工知能学会 (The Japanese Society for Artificial Intelligence)

                                      Home » リソース » 私のブックマーク » 【記事更新】私のブックマーク「視覚と自然言語の融合研究(Integrating Vision and Language)」 牛久祥孝(東京大学) はじめに 視覚(もう少し具体的にいえば画像や動画など)を対象とした研究と、自然言語を対象とした研究は、それぞれComputer VisionおよびNatural Language Processingの領域において、お互い少しずつ影響しあいながら発展を遂げてきた。特に近年、深層学習の一種であるConvolutional Neural Network (CNN)やRecurrecnt Neural Network (RNN)といった共通の機械学習手法が台頭し、それぞれの領域への参入障壁が低くなった。結果として、視覚と自然言語を融合する研究が様々な広がりを見せつつある。(深層学習によって、はじめてこれ

                                        【記事更新】私のブックマーク「視覚と自然言語の融合研究(Integrating Vision and Language)」 | 人工知能学会 (The Japanese Society for Artificial Intelligence)
                                      • 【記事更新】私のブックマーク「ファッションと機械学習」 – 人工知能学会 (The Japanese Society for Artificial Intelligence)

                                        中村拓磨(ZOZO Research) はじめにKDDやICCVといった名だたる国際会議において,ファッション関連技術を扱うワークショップが開催されるようになりました.ここ数年でファッションに対する認識技術への関心は大きくなっていることが伺えます. ファッションというドメインは,研究対象としては敬遠されてきたかと思います.多様性や主観を多分に含むことは原因のひとつですが,最近は状況が変わりつつあります.深層学習ブーム以降の他のドメインと同様,認識技術の高度化・データセットの充実・産業界の需要の増加などの要因で研究事例の数も増加傾向にあります. 環境の変化もさることながら,ファッションという現象自体も実に多様な研究テーマを内包しています.例えば,以下のように分解してみました. – 視覚的な印象やデザイン: 画像認識– 特定の衣服の流行・トレンド: 時系列解析– 衣服のコーディネート: 組合せ

                                        • 情報大航海プロジェクト

                                          【2009/12/17】 次世代パーソナルサービス推進コンソーシアムのホームページが公開されました 個人に関する情報を利活用するための制度的・技術的な課題を検... 【2009/12/15】 共通技術のご紹介 第4回「画像特徴量の抽出エンジン」を掲載しました 平成21年度に開発する共通技術を当ホームページでご紹介して... 【2009/12/ 8】 共通技術のご紹介 第3回「面白い順に検索結果が現れる「オモロ検索」」を掲載しました 平成21年度に開発する共通技術を当ホームページでご紹介して... 【2009/11/30】 共通技術のご紹介 第2回「PI(Place Identifier)基盤」を掲載しました 平成21年度に開発する共通技術を当ホームページでご紹介して... 【2010/6/28】 日経BP社より「ライフログ活用のすすめ 最新動向から法的リスクの考え方まで」が発行されました

                                          • 3次元画像工学2013年特別講義「コンシューマデプスセンサの原理と3D Comupter Vision入門」

                                            3次元画像工学2013年特別講義「コンシューマデプスセンサの原理と3D Comupter Vision入門」 Presentation Transcript 13次元画像工学 2013/06/19 特別講義 内容 1.  Kinect1(Pro-Cam形式)の原理2.  Kinect2(TOF形式)の原理3.  Kinect for Windows SDK v.s. OpenNI4.  PCL (Point Cloud Library)チュートリアル 2 内容 1.  Kinect1(Pro-Cam形式)の原理2.  Kinect2(TOF形式)の原理3.  Kinect for Windows SDK v.s. OpenNI4.  PCL (Point Cloud Library)チュートリアル 3 コンシューマデプスセンサーとは ×  実世界の距離情報を動画で撮影できるセンサー× 

                                            • 日立、数百万件の画像データから類似画像を1秒以内で検索する技術を開発 | エンタープライズ | マイコミジャーナル

                                              日立製作所は24日、大規模な画像や映像データの中から、指定した画像と見た目が似ているデータを1秒以内(数百ミリ秒)で高速検索する類似画像検索技術を開発したと発表した。画像自体が持つ視覚情報(色分布、質感、構図など)を工夫することで、高速かつメモリ消費量を抑えた検索を可能にした。 この技術はすでに実用化されていたが、検索時の処理量が大きいため、大規模なデータの取り扱いは困難だった。類似画像検索は、検索の対象となる画像から視覚的な情報を数百次元の数値列データ(画像特徴量)で示し、データ間の「似ている度合い(類似度)」を、画像特徴量の違い(画像特徴量ベクトル間の距離)で評価する。類似画像検索を行う場合は、この数百次元の画像特徴量の違いを計算する必要があるため、検索対象が数百万件規模になると、その演算量は膨大になり、検索時間の高速化が課題となっていた。 今回発表された技術は、値の近い画像特徴量デー

                                              • NEC開発の画質評価技術が国際標準に採用、映像配信の品質を自動チェック可能に

                                                NECは2010年2月22日、同社が開発した映像の画質に関する客観評価技術が、ITU-T SG9(国際電気通信連合 電気通信標準化部門作業グループ9)における画質の客観評価方法に関する国際標準規格「J.249」(ITU-T推奨のデジタルケーブルテレビ向け映像画質測定方法 )の一方式として採用されたと発表した。 この技術は、少量の画像特徴量を用いて映像の画質(QoE: Quality of Experience)の客観的な評価を自動で行うもの。従来、元の映像との直接比較による画質の客観評価技術はあったが、元の映像そのものが必要となるため受信端末上でリアルタイムにQoEを捉えることは困難だったという。 今回は、具体的には画面を16×16画素のブロックに分割した各ブロック内の輝度の分散に相当する簡易なものを特徴量として算出する。画質チェックを行う際に送信元の映像が不要で、抽出された少量の特徴量だ

                                                  NEC開発の画質評価技術が国際標準に採用、映像配信の品質を自動チェック可能に
                                                • ニュースリリース : 2007年7月24日 : HITACHI

                                                  このニュースリリース記載の情報(製品価格、製品仕様、サービスの内容、発売日、お問い合わせ先、URL等)は、発表日現在の情報です。予告なしに変更され、検索日と情報が異なる可能性もありますので、あらかじめご了承ください。なお、最新のお問い合わせ先は、お問い合わせ一覧をご覧下さい。 お問い合わせ一覧 2007年7月24日 数百万件の画像データベースから 1秒以内で類似した画像・映像を検索できる技術を開発 検索に用いる画像特徴量データの保存方法を工夫し、 大規模データベースの高速検索を可能に 株式会社日立製作所(執行役社長:古川 一夫/以下、日立)は、このたび、数百万件の大規模な画像・映像データの中から、指定した画像と類似した画像を1秒以内で高速検索できる類似画像検索技術を開発しました。類似画像検索技術は「見た目が似ている」画像を検索する技術で、画像間の類似性の評価は、画像の色の分布や形状等、画像

                                                  • ディープニューラルネットワークと近似最近傍探索で類似画像検索する - Qiita

                                                    この記事はピクシブ株式会社 AdventCalendar 2017 7日目の記事です。 @tamanobiと申します。ピクシブ内ではPHPやRuby on Railsを使って開発をしています。 今回は、ディープニューラルネットワークと近似最近傍探索で画像検索を行ってみました。実装にあたって詳しい理論部分まで調べきれていないため、補足や指摘は歓迎します。 はじめに 「あのとき見た画像がどうしても検索できない」「画像はあるけど誰の作品かわからない」というときはないでしょうか? GoogleやTinEye Reverse Image Searchには、テキストから画像を探すのではなく、画像を入力(クエリ)として画像を検索できる機能が存在します。 画像をクエリにすることができると、手元にある冊子を撮影して検索することができたり、似たような画像を探すことができます。画像がクエリであれば、テキストをク

                                                      ディープニューラルネットワークと近似最近傍探索で類似画像検索する - Qiita
                                                    • 相澤・山崎研究室 - 研究紹介・Web視覚情報処理 -

                                                      Web画像は、実世界画像と異なり、各々がその役割や意味を持つ。 この意味や役割を解析することが、Web解析において非常に重要な情報となると考えている。 これがWeb解析において重要な情報になるであろうと考え、9つの役割のカテゴリを定義し、簡単な画像特徴量やテキスト情報を用いて学習分類を行った。 これを利用した新たなWeb解析やアプリケーションについての研究を行っている。 役割に基づく画像の分類 一般のWeb画像検索システムはテキスト解析のみを利用しているが、テキスト処理だけでは本来の目的と異なるノイズ画像や不適切な画像の除去には限界がある。 そこでさらに画像解析を行うことにより、画像検索の精度を向上させる手法について研究を行っている。 Web画像検索結果からのノイズ画像の除去例 Webページ上の画像の利用にとどまらず、Webページそのものをレンダリングされた状態で解析する手法を検討している

                                                      • IEEE Transactions on Pattern Analysis and Machine Intelligence (IEEE)

                                                        [2015] [2014] [2013] [2012] [2011] [2010] [2009] [2008] [2007] [2006] [2005] [2004] [2003] [2002] [2001] [2000] [1999] [1998] [1997] [1996] [1995] このインデックスでは、新しい号が上になるように、発行日と逆順に 並べています。 なお、和文要約のデータそのものは、発行年ごとにファイルを分けて、 ファイル中では発行日順に並べています。 Vol.37, NO.8 August, 2015 相互情報量を用いた特徴選択の探索法に基づく半定値プログラミング 部分空間クラスタリングのための教師なし・教師あり制約の活用 構造木のforestsを用いた高速なエッジ検出 物体認識のための部分検出器の識別性能の高い組み合わせの学習 単一のレベルセット関数を用いた多領域

                                                        • ECCV2012で発表されたKAZE局所特徴量を試してみた | さかな前線

                                                          先日ちょっと膝をケガしてしまいまして,ギプスに松葉杖です.けっこうリアルさかなに近づけたんじゃないかと思うのですがいかがでしょう? 折しも12/6で私も23歳を迎えました.できれば無事健康体で迎えたかったこの日. この記事はComputer Vision Advent Calendar 2012の12/7担当分として書かれたものです. 主催者でありながら華麗に遅刻をキメました.これはひどい. 高専時代の後輩でもある@blue_jamくん,お疲れ様でした.そして誕生日メッセージありがとうございます. さて,コンピュータビジョンにおける極めて重要な要素のひとつに画像特徴量があります. これまでにたくさんの特徴抽出手法が提案されてきているわけですが,この度は最近の国際会議で発表されたばかりの新しい手法の実装が公開されていたので,それを試して見ることにしました. 画像間対応付けと局所特徴量 一般に

                                                          • Microsoft PowerPoint - pr_15_lbp-bs.pptx

                                                            デジタル情報の処理と認識 (2012a) 第15回 画像特徴の計算と応用 1  LBP画像特徴  LBP画像特徴の性質  画像の類似検索 第15回 画像特徴の計算と応用 LBP画像特徴 デジタル情報の処理と認識 (2012a) 第15回 画像特徴の計算と応用 2 画像特徴  色  形状  テクスチャ  画像特徴量 → 画像の特徴や性質を表す数値 画像 特徴抽出 (Feature Extraction) 画像特徴  パターン検出、画像分類、類似検索、画像改善などへ応用 画像特徴 LBP  LBP (Local Binary Pattern) ローカル・バイナリー・パターン  T. Ojala (1994)らによって提案された特徴  画像の局所的な特徴を抽出できる  画像の照明変化の影響を受けにくい デジタル情報の処理と認識 (2012a) 第15回 画像特徴の計算と応

                                                            • シモセラ エドガー Siameseネットワークモデルを用いた画像特徴量抽出

                                                              Siameseネットワークモデルを効率的に学習させることで、 ロバストな画像特徴量を計算する手法を提案する。 提案手法では、モデルに2つの画像パッチを入力し、出力された特徴量の誤差によってモデルを学習させる。 また、入力するパッチをその識別の難しさによって分類し、識別が困難なパッチを優先的に学習させることで、SIFT特徴量よりもロバストな特徴量の抽出を実現した。 Our approach consists in training a Convolutional Neural Network (CNN) to build a feature representation of an image patch. We train by using two patches simultaneously that should either correspond to the same point

                                                                シモセラ エドガー Siameseネットワークモデルを用いた画像特徴量抽出
                                                              • 【すごいぞ! ニッポンのキーテク】映像から瞬時に検索 日立の監視システム (1/2ページ) - MSN産経ニュース

                                                                【すごいぞ! ニッポンのキーテク】映像から瞬時に検索 日立の監視システム (1/2ページ) 2009.4.26 08:48 数百万件、数千万件の世界中の画像、映像データの中から、「見た目」だけを頼りに、わずか1秒足らずで類似する人物や物を選び出す。日立製作所中央研究所が開発した類似画像検索システム「EnraEnra(エンラ・エンラ)」が、ネットワーク時代の新たな監視技術として実用化を目前にしている。 数百台の監視カメラが撮影した膨大な映像の中から、重要な監視対象と類似した人物の姿を画面にリアルタイムで取り出し、1台のモニター上で瞬時に拡大表示する。重要な人物が写っていた場合、顔の部分をクリックすれば、他のカメラで過去に撮影された記録を瞬時に調べることもできる。監視だけでなく、製造ラインに導入すれば、過去に発生した不良品と類似した商品を検知するなど、コストや労力を大幅に削減した効率的な生産

                                                                • LayoutLMの特徴と事前学習タスクについて - LayerX エンジニアブログ

                                                                  LayerXで機械学習エンジニアを担当している @yoppiblog です。今回はOCRチームで検証したLayoutLMについて簡単に紹介します。 LayoutLMとは LayoutLMとは昨今注目されているマルチモーダルなDocument Understanding領域の1実装です。 様々な文書(LayerXだとバクラクではお客様の多種多様な請求書といった帳票を扱っています)から情報を抽出(支払金額、支払期日や取引先名など)するために考案されたものになります。 BERT(LayoutLMv3はRoBERTa)ベースのencoder層を用いレイアウト情報や、文書そのものを画像特徴量としてembedding層で扱っているところが既存のモデルより、より文書解析に特化している点です。 v1〜v3まで提唱されており、v3が一番精度が高いモデルです。 もともと、LayoutLMv2では多言語対応され

                                                                    LayoutLMの特徴と事前学習タスクについて - LayerX エンジニアブログ
                                                                  • OpenCV 3.4.1で背景差分 - whoopsidaisies's diary

                                                                    背景差分 画像の前景と背景を分離する手法。2013年にOpenCV 2.4.7での背景差分の記事を書いたが、2018年になったいまOpenCV 3.4.1で背景差分を行おうとしたら使えるアルゴリズムが増えていたのでまとめておく。 アルゴリズム MOG, MOG2, GMG OpenCV 2.4.7でも使えた。以下のページに日本語でわかりやすい説明がある。 背景差分 — OpenCV-Python Tutorials KNN K近傍方に基づく背景差分。前景の画素数が少ない場合は効率が良いらしい。 Efficient adaptive density estimation per image pixel for the task of background subtraction - ScienceDirect CNT 低スペックな計算機でもほかのアルゴリズムより高速に処理ができる。CNTとい

                                                                      OpenCV 3.4.1で背景差分 - whoopsidaisies's diary
                                                                    • ビッグデータ活用時のワークフローの大切さ ZOZO研究所のエンジニアが感じた次元が違う300万画像の処理

                                                                      ZOZO Technologies Meetup は、「ZOZOテクノロジーズの大規模データ活用に興味のある方」を対象としたイベントです。ZOZO研究所の渡辺氏からは大規模データを対象とした画像検索システムのワークフローについての事例を紹介しました。後半は画像検索のワークフローの流れについて。 画像検索のワークフローの流れ 渡辺慎二郎氏:というところの話になってきて、これがワークフロー、それを毎日のように準備するという仕組みになります。先ほど見せた図で言うと、この部分ですね。 このワークフロー、今回ではComposerというGKEのマネージドサービスを使っています。これの中身、具体的な仕組みは置いておいて、流れをご紹介します。 まずBigQueryから、本日今時点で有効になっている、使える、発売になっている商品情報をダーッと取ってきます。だいたいこれが300万画像ぐらい。その日によって違っ

                                                                        ビッグデータ活用時のワークフローの大切さ ZOZO研究所のエンジニアが感じた次元が違う300万画像の処理
                                                                      • FPGAの原理と構成を読んだ - xiangze's sparse blog

                                                                        FPGAブームが来ています*1 。 最近年を追うごとにFPGAに関する書籍やネット上の情報が多くなり、またC言語ベースでの高位合成技術の進展やLinuxベースのシステムが作られ、FPGAはソフトウェア開発者にとっての敷居が低く使いやすくなってきています。しかし入手できる情報は特定のベンダーの製品、ツールの使用を想定した実践的なものが多く、中立的立場からFPGAの内部構成や動作する原理について解説した日本語の本はほとんど見当たりませんでした。 「FPGAの原理と構成」はそのような意味で他にはない、この本にしか載っていない事柄の多い本になっています。 FPGAの原理と構成 shop.ohmsha.co.jp 1章 FPGAを理解するための基本事項 2章 FPGAの概要 3章 FPGAの構成 4章 設計フローとツール 5章 設計技術 6章 ハードウェアアルゴリズム 7章 PLD/FPGAの応用事

                                                                          FPGAの原理と構成を読んだ - xiangze's sparse blog
                                                                        • RecSys'14 - 東京大学中山研究室 研究日記

                                                                          中山です。ご無沙汰しております。 今週は、米国シリコンバレーで開催中のACM Conference on Recommender Systems (RecSys)という会議に参加しています。この会議はその名の通り、データマイニング系の中でも応用よりで特に推薦システムに特化しており、分野ではトップ会議の一つです。採択率は、long paperが35/152=23.0%、short paperでも20/82=24.4%となかなか狭き門だったようです。 今回は、M2の山元君が最終日のRecSysTVというワークショップで、画像特徴量を用いたコンテンツベースド動画推薦について発表しました。 http://recsys.acm.org/recsys14/ ポスター会場の様子。バンケットと同時に実施されましたがみんな熱心に議論していました。 RecSysTVワークショップで発表中の山元君。最終日の遅い

                                                                            RecSys'14 - 東京大学中山研究室 研究日記
                                                                          • 大規模画像データセットを用いた自動画像アノテーション - cslabの日記

                                                                            研究用メモ 画像認識に関する研究用メモ 任意の画像に映ってい映っている物やシーンを自動的に理解するために、画像にタグを自動手に付けていく手法が求められている。 自動画像アノテーションの定義は、タグがついていない画像に対して、ふさわしいタグを複数付けていく手法のこと。 画像中の特定のもの、たとえば、猫を見つけるなら、「特定物体認識」、何が映っているかを複数見つけるなら、「一般物体認識」と分けて議論される。 自動アノテーション処理の流れ 1.画像とそれに付随するタグのペアデータベースの構築 2.画像とタグの特徴抽出 3.画像とタグの関係モデルの構築 4.モデルから新規画像へのふさわしいタグ推定 が処理の流れ。 画像の自動タグつけ用データセットをチェックしておく。 自動アノテーション手法のアルゴリズム評価用に用意されたデータセット corel5K 例が載っている。Humanが画像に付けたタグと、

                                                                              大規模画像データセットを用いた自動画像アノテーション - cslabの日記
                                                                            • ケータイでポスター撮って情報ゲット アニメPRに活用

                                                                              NTTデータと東京放送(TBS)は6月17日、携帯カメラで撮影したポスターなどの画像から特徴を検出してサーバに送信し、対応したURLを携帯に送り返す「パッとび」の技術を、アニメ映画「あらしのよるに」のプロモーションに活用すると発表した。新技術を新作映画と共同でアピールし、普及に弾みをつけたい考えだ。 パッとびは、NTTサイバースペース研究所が2000年から研究してきた、携帯カメラやWebカメラ向け画像認識技術の総称。今回採用したのは第3世代の「パッとびG byみるら」で、シーフォーテクノロジーの画像特徴量抽出技術を活用している(関連記事参照)。画像の濃淡から特徴量を検出してサーバに送信し、サーバにあらかじめ登録しておいたURLを携帯に送り返す仕組みだ。 写真や絵などを、デザインを変えずに2次元バーコード化できるのがメリット。対応URLはサーバ側で変更できるため、映画公開前はプロモーション用

                                                                                ケータイでポスター撮って情報ゲット アニメPRに活用
                                                                              • ICCV 2013 (1) - 東京大学中山研究室 研究日記

                                                                                中山です。 遅くなりましたが、先月シドニーで開催されたInternational Conference on Computer Vision (ICCV)の紹介をさせて頂きます。 ICCVは、CVPRと並ぶコンピュータビジョンの分野では最も権威のある国際会議です。CVPRの方は毎年米国で開催されますが、ICCVは隔年でECCVと交互に開催されています。内容的にはどちらも変わらず最高レベルの研究発表が行われますが、雰囲気はCVPRと結構違う印象を受けました。シングルトラックでセッションが組まれていることが大きいと思いますが、質疑応答などは以前参加したCVPRの方がずっと活発であったように感じました*1。 いずれにせよ、ビジョンのみならずさまざまな分野の研究者にウォッチされている会議であり、我々としては目指すべき場所の一つです。今回の採択率は久しぶりに30%を超え、少し間口が広がった印象があり

                                                                                  ICCV 2013 (1) - 東京大学中山研究室 研究日記
                                                                                • 【記事更新】私のブックマーク「コミック工学(Comic Computing)」 | 人工知能学会 (The Japanese Society for Artificial Intelligence)

                                                                                  松下光範(関大),山西良典(立命館大),松井勇佑(NII),岩田基(大阪府立大),上野未貴(豊橋技科大),西原陽子(立命館大),中村聡史(明治大) はじめに: コミック工学の概要 タブレットやスマートフォンなどの携帯ディジタル端末の普及に伴って,このような端末の上でコミック(以下,電子コミック)を閲読することが一般的になってきている.文献 [1] によれば,2016 年度の紙媒体のコミックが 1,947 億円(前年比7.4% 減)であったのに対し,電子コミックの販売金額は 1,460 億円(前年比 27.1% 増)に上り,ユーザの閲覧形態が紙媒体から電子媒体へと移行している様子が顕著に表れている.電子コミックは,ディジタル端末上でリアルタイムに処理可能であることから,紙媒体のコミックに比べ高い拡張性と応用性を有していると考えられる.例えば,従来のコミックの枠に囚われない表現(e.g., 話