Photo by midiman under Creative Commons License (original) メリークリスマフ! 得居です。今日はクリスマスですね。皆様昨日はいかがお過ごしでしたでしょうか? クリスマスということで、今日は私たちから皆様に、特にデータ解析や論文執筆、手法の比較検証のために計算機上で様々な実験をしている方々に、プレゼントがあります! Github – pfi/maf 今日、実験結果を「ビルドする」ためのツールmafを公開しました! mafは、PFIでもよく使われているPythonベースのビルドツールwafを実験に使うための拡張です。大まかな使い方を学ぶために、ドキュメントとサンプルも公開しています。 maf — maf 0.1 documentation サンプル 実験手順をビルドだと思って宣言的に書くこと自体はwaf等既存のビルドツールで可能です。m
Account Suspended This Account has been suspended. Contact your hosting provider for more information.
Collection of best paper awards for 32 computer science conferences since 1996 This is a collection of best paper awards from conferences in each computer science subfield, starting from 1996. Originally, the broadest representative conference for each subfield were selected to be included. This data was entered by hand from sources found online (many of them no longer available), so please email
This content-based image search and automatic learning-based linguistic indexing research was started in 1995 when Wang developed an art image retrieval system for the Stanford University Libraries. If you are interested in using our technologies, please contact James Z. Wang and Jia Li. Inspired by the fact that the Riemann Hypothesis remains as one of the most important unsolved problems in math
コンピュータビジョンで物体検出や追跡を行う場合、当然のことながら学習データというのをある程度用意しなくてはいけません。具体例としてはOpenCVのHaarClassifierCascadeで物体検出するための検出器を訓練するとき、訓練画像をたくさん集めて、その対象となる物体がその画像のどこにあるのかを記述したテキストファイルを作らなくちゃいけません。 詳しくは、ここら辺を参考にしてください。 http://gihyo.jp/dev/feature/01/opencv/0004 また、作った物体検出器やトラッキング用プログラムが正しく位置を検出しているかを評価するために、あらかじめ正解データというのを作っておいてそれに対して評価をする必要があります。この正解データというのがやっぱり画像を集めて、それに対してその物体の位置というのをいちいち人間が手動で調べて、なんらかの外部ファイルとしてその座
If you have additions or changes, send an e-mail (remove the "nospam"). This material is presented to ensure timely dissemination of scholarly and technical work. Copyright and all rights therein are retained by authors or by other copyright holders. All persons copying this information are expected to adhere to the terms and constraints invoked by each authors copyright. Participate in Reproducib
On October 29th at ICCV 2019 in Seoul, the creators of LFW were honored with the Mark Everingham Award for service to the Computer Vision Community. Thanks to all that have participated in making LFW a success! New results page: We have recently updated and changed the format and content of our results page. Please refer to the new technical report for details of the changes. Labeled Faces in the
Acknowledgements Many thanks to Engin Tola for the web interface and to all who provided their results on these datasets. The original results are published in: C. Strecha, W. von Hansen, L. Van Gool, P. Fua, U. Thoennessen On Benchmarking Camera Calibration and Multi-View Stereo for High Resolution Imagery CVPR 2008 [pdf] When using the datasets in any publication, please refer to them with the e
H3D Dataset Lubomir Bourdev and Jitendra Malik Updated June 17, 2011 Download H3D version 1.01 (325MB) H3D (Humans in 3D) is a dataset of annotated people. The annotations include: The joints and other keypoints (eyes, ears, nose, shoulders, elbows, wrists, hips, knees and ankles) The 3D pose inferred from the keypoints. Visibility boolean for each keypoint Region annotations (upper clothes, lower
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く