ransacReprojThreshold ->点の組を,インライア値(外れ値ではないもの)として扱うために許容される逆投影誤差の最大値(これは,RANSACメソッドでのみ利用されます).srcPoints と dstPoints がピクセル単位で表されているならば,このパラメータは1から10の範囲内の値が妥当です. status -> ロバスト手法( CV_RANSAC または CV_LMEDS )を利用した場合に,オプションとして出力されるマスク. 入力マスク値は無視されることに注意してください. RANSACで使用した点のみを出力する RANSACかLMEDSを使ったときに出力されるstatusには,マッチ点数分の{0,1}が出力されます. 1の点は使用された点(inliner)で,0の点は使用されていない点(outliner)です. 表示プログラム 対応点の表示とRANSACで選ば
ctags プログラムを利用して、ソースコードなどの tags ファイルを作成しておくと、関数名や変数名を使って定義位置にタグジャンプすることができます。 Universal Ctags コマンドのインストール タグジャンプ系の機能を使用するには、あらかじめ検索対象のソースコードから tags ファイルを生成しておく必要があります。 tags ファイルを作成するには、外部コマンドの ctags を使用するのですが、このコマンドは下記の Universal Ctags で提供されているものを使用するのがよいでしょう。 Universal Ctags 各OS用のインストールパッケージ Windows であれば、ダウンロードしたアーカイブに含まれている ctags.exe をパスの通ったディレクトリに配置するだけでインストールは完了です。 昔は exhuberant ctags で提供されている
OpenCVのJava APIは、もともとAndroidでOpenCVを使うために開発されたもののようだが、WindowsやLinux(たぶんMacOSも)の普通のJava実行環境でも使える。OpenCV 2.4.4(?) 以降では、Windows用にOpenCVを普通にインストールすると、Java APIもインストールされる。 拙作「ナンプレ破り」は、内部でいろいろな画像処理をするのだが、そのパラメタを決めるために、たくさんの画像を処理して結果を評価するようなことをやっている。それは開発中にWindows上でプログラムを動かしているのだが、Android用の処理を評価するのが目的なので、WindowsでもOpenCVを使うJavaプログラムとして作ってある。 これで、少々ハマったので、何にどうハマったのか、どう解決したのか、書いておく。 OpenCVをJavaから使うときには、画像データ
ブログ 2024/7/5 2024年6月の統計WEBのページビュー数 2024年6月月は、145万PVとなりました。昨年同月比で 98.5% となっています。 2022年7月から2024年6月月までの2年間について... 詳しく見る ブログ 2024/6/11 2024年5月の統計WEBのページビュー数 2024年5月は、145万PVとなりました。昨年同月比で 104.5% となっています。 2022年6月から2024年5月までの2年間について、... 詳しく見る 書籍紹介 2023/3/29 文系の私に超わかりやすく統計学を教えてください! 『マンガでわかる統計学』シリーズの著者、高橋信先生が執筆した教養書です。 リスキリングの潮流の中で、教養のひとつとし... 詳しく見る 書籍紹介 2023/2/9 マンガでわかる統計学 統計学を勉強するための取っ掛かりとしてはとても良い本です。漫画な
import cv2 def edgeDetect(color): # カーネルサイズの設定 kernel5 = np.ones((5, 5), np.uint8) # [1] 画像のグレースケール化とノイズ除去 gray = cv2.fastNlMeansDenoising( cv2.cvtColor(color, cv2.COLOR_BGR2GRAY), h=20) # [2] dilate -> diff で線抽出 dilation = cv2.dilate(gray, kernel5, iterations=1) diff = cv2.subtract(dilation, gray) diff_inv = 255 - diff # [3] 線を単色 -> 2値に _, edge = cv2.threshold(diff_inv, 225, 255, cv2.THRESH_BINAR
この投稿は自分のブログの転載です。 keras-deeplab-v3-plusで人だけとってみる - 機械音痴な情報系 Semantic Segmentationで人をとってきたいのでkeras-deeplab-v3-plusを使ってみました。 勿論本来は人以外も色々なものをとってこれます。 keras-deeplab-v3-plus - Github 準備 # 仮想環境の準備 $ conda create -n keras-deeplab-v3-plus $ source activate keras-deeplab-v3-plus # モジュールインストール $ conda install tqdm $ conda install numpy $ conda install keras # 重みダウンロード $ python extract_weights.py $ python lo
This post describes our work and research on the greenScreen.AI. We’ll be happy to hear thoughts and comments -On Twitter, Linkedin Also check out our website — www.shibumi-ai.com IntroThroughout the last few years in machine learning, I’ve always wanted to build real machine learning products. A few months ago, after taking the great Fast.AI deep learning course, it seemed like the stars aligned,
Google、CNNを用いて人物などの前景と背景を分離するモバイルベースのリアルタイムビデオセグメント技術を発表。YouTubeに統合 2018-03-02 Googleは、CNN(Convolutional neural network)を用いて人物などの前景と背景をリアルタイムに分離できる新しいセグメンテーション技術を発表しました。 本技術は、モバイルで撮影した人物と背景を分離し、背景を自由に変えることを可能にする軽量ビデオフォーマットです。クロマキー合成のように特殊な機材などを使用することなく、モバイルベースで手軽に行うことができます。 この機能は、YouTubeにおいて動画をスマートフォンなどで撮影/編集/投稿するストーリーフォーマットに統合され、機能の一つとして利用することが可能になります。 機械学習も用いており、背景から前景を分離するなどの計算処理能力を上げるため、CNNアーキ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く