を作りました。 画像内で、青色の部分をラベリング。 その上で青色の面積が一番広いところの、重心を求めて表示します。 こんな感じで青色のファイルをかざすと、 青色と判定された部分を白で表示して、重心に水色の丸を表示。 処理的には、そこそこ早いのでゲームなんかにマウスポインタ的に気楽に使うのに良いんじゃないかなと。 [参考資料] 重心を求める部分は、OpenCVプログラミングブックの肌色追跡の部分に載ってた画像モーメントの式。
« Perl - Imagerで写真に半透明ロゴを入れる | メイン | 知らないおじさんがきた » 2007年06月05日 ■ Processing - 4近傍ラベリング処理とか2値化をやってくれるクラス作った [Programming&Electronics][Technology] Proce55ing - 2値化画像を4近傍ラベリング処理してパーツ抜き出しで未完成だったラベリング処理部分が完成したので、クラス化してみた。 こんな感じで使う。PImage img; Image_SilhouetteExtract ise; img = loadImage("room.jpg"); // 300x200 picture ise = new Image_SilhouetteExtract(); boolean bins[] = ise.img2bin(img, 120, true);
ふと目が覚めたのでbuilt with processing。 ラベリング処理をやってみた。 画像を読み込んで2値化し、2値化画像のマウスクリックしたパーツだけを抜き出して一番右に表示する。 ■処理結果 頭の部分だけ抜き出し 二値化の閾知を変えて、頭の部分だけ抜き出し ■4近傍ラベリング処理 ラベリング処理は、2値化(白黒化)した画像のピクセルを走査して、ピクセルの塊り毎にラベル(番号)を付けてやる処理のこと。 視覚センサを用いた自律移動ロボットの行動決定(pdf)という論文がとてもわかりやすかった。 今回使った4近傍の他にも、ラインブロックを使ったラベリング処理やヒストグラムを用いた連結成分検出が解説・ベンチマークされている。 左上から右へ、一番右までたどり着いたら1段下の左端に戻る。 そして、毎ピクセル毎に左、左上、上、右上の4近傍ピクセルをチェックする(図の赤と青の部分
計測自動制御学会東北支部 第231回研究集会 (2006.10.31) 資料番号 231-4 視覚センサを用いた自律移動ロボットの行動決定 Decision making for an autonomous mobile robot using a vision sensor ○山口智充∗ ,及川一美∗ , 大久保重範∗ , 高橋達也∗ Tomomitsu Yamaguchi∗ , Kazumi Oikawa∗ , Sigenori Okubo∗ , Tatsuya Takahashi∗ *山形大学 *Yamagata University キーワード : 自律移動(autnomous mobile robot),画像処理(image processing), 視覚センサ(vision sensor) 連絡先 : 〒992-8510 山形県米沢市城南4-3-16 山形大学 工学部 機械シ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く