サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
掃除・片付け
blog.goo.ne.jp/roboz80
Pythonistaで顔認識をやってみた。 Pythonistaとは。 ・iOS上で動作する革命的ものづくり環境「Pythonista 3」の魅力をとくと語る とりあえずサンプルプログラムを改造して画像から顔のは抽出できた。 Pythonistaでカメラ画像の上に図形を描画したいのだが、シンプルなサンプルプログラムがなかなか見つからない。 画像に図形や文字を描画するテスト。 ui.Viewに画像を表示するところまではできたが、これに図形を上書きする方法は1日掛かってもわからなかった。orz やっとPythonistaでui.Viewに図形や文字を上書きした画像を表示するの出来た。 2日もかかってしまった。 顔認識して枠線描画するのできた。長い道のりだったが分かってしまえば簡単だった。 顔認識して画像を上書きするやつもやってみた。 ここの"MaskFace.py"を使わせてもらった。 顔認識
Pythonista(iOSで動くPython) がBluetooth LEに対応してると言うのでGenuino101で遊ぶのに買ってみた。 ・「Pythonista」iOS上で動作するPython統合開発環境がv2.0にアップデート!その物凄い内容とは まず、ちょっとPythonistaの味見にこれを試した。 ・使っていて気持ちがいい Python の HTTP クライアント "requests" | CUBE SUGAR おぉ、一発で動いた!PythonistaのPythonの互換性は高いみたい。 次にBLE経由で、Genuino 101のLチカをやってみた。 ここのサンプルを参考にやってみたら比較的簡単に出来た。 ・cb — Connecting to Bluetooth LE Peripherals Pythonのソースは、ここに置いておきます。 ソース12行目の'GENUINO
Raspberry Pi + BLEで、konashi/SBBLEを動かしてみたのでその手順を紹介します。 使用したもの: ・Raspberry Pi B ・USB Bluetoothドングル(I-O DATA Bluetooth4.0+EDR/LE準拠 USBアダプター USB-BT40LE) ・SBBLE 手順1: ここを参考にnode.js をインストールする。v0.10.24を使用した。 ・Raspberry Piにnodejsをインストール - fukajun - DeepValley - 最初にnodebrewをインストールすると、PATHを追加しろというメッセージが出るので”.bashrc”に追加しておく。 手順2: ここを参考にBlueZ 4.101 と nobleをインストールする。bluez-5.4ではNGだった。 ・Getting started · sandeepm
”自分で組み立てて学ぶコンピューター”というものを見かけて調べてみたら、LPC1114にキーボードとディスプレイを繋いでBASICを動かすという面白いものだということが分かった。 ・自分で組み立てて学ぶコンピューター IchigoJam ブレッドボード版提供開始 しかし、自分の使い方だとディスプレイは不要なので、さらに調べてみるとマイコンにシリアル端末を繋いで動かすTinyBASICがあることが分かった。 ・豊四季タイニーBASICのリファレンスを公開 電脳伝説 Vintagechips これは、Windows PC、PIC24F、Arduinoに対応しているが、mbedで使いたかったので移植してみた。 ハード依存はシリアル入出力ぐらいなので移植は簡単だった。 mbedに慣れた人なら1時間も掛からないと思う。 移植はここが参考になる。 ・豊四季タイニーBASICの移植の手引き 電脳伝説
Arduino UNOの互換ボードとUSB Host Shield 2.0互換ボードをAmazonで入手。 Arduino + USB Host Shield 2.0 + USB Bluetoothドングルと、ここのライブラリを使うと、PS3コントローラやWiiリモコンがArduinoで使えるようになるらしいので試してみた。 PS4 controllerも対応してるらしい。 ・USB Shield « Circuits@Home ・felis-USB_Host_Shield_2.0 · GitHub ”USB Host Library”を使うための手順。(2014.03.13追記) 1.ここからファイルをダウンロードする。 ・https://github.com/felis/USB_Host_Shield_2.0/archive/master.zip 2.ダウンロードしたファイルを適当な所
「MPU-6050三軸加速度三軸ジャイロセンサーモジュール」がAmazonで安く入手できたので、動かしてみた。 使用したもの ・MPU-6050モジュール ・Arduino Duemilanove (Arduino Leonardoではうまくいかなかった) ・Windows8.1 (64bit版) ・processing-2.0.3 (32bit版) ArduinoとMPU-6050の接続、Arduino側のプログラムはここを参考にさせてもらった。 ・MPU-6050三軸加速度三軸ジャイロセンサーモジュール - Androciti Wiki PC側のプログラムは上記「Androciti Wiki」で紹介されている”TeaPot.exe”は使わず、SNS-1007MPU-6050Moduleに同梱のProcessing版を使用した。 場所は、 ダウンロードした”SNS-1007_MPU-60
AmazonでLeap Motionを購入。 Amazonだと本家から買うより少し高めかもしれないが、注文の翌日には届くのでまあいいか。 とりあえずドライバを入れて動作確認はOK。 Leap Motionの詳細はこちら。 ・空中ジェスチャ操作デバイスLeap Motionとは まずは、ProcessingでLeap Motionのサンプルが動くのを確認。 このライブラリを使わせてもらった。 ・LeapMotionP5 - A Leap Motion Library for Processing いろいろ遊べそうだ。 Leap Motion用のProcessingライブラリが複数あったが、共存できないようだ。 仕方ないので”LeapMotionP5”以外は削除した。 Processingでテストプログラムを作って少し遊んでみたが、やっぱり手を宙に浮かして操作するのって疲れる。 Process
Raspberry Pi に USB Camera をつないで、フェイストラッキングや映像ストリーミング、カラートラッキングをやってみた。 まず、カメラの動作確認。 動作確認には、guvcview を使用した。 Raspberry Pi + LOGICOOL C270の組み合わせで動いた。 ここを参考にさせてもらった。 ・Setting up my Raspberry Pi and a Logitech C270 webcam インストールはこんな感じ sudo apt-get update sudo apt-get upgrade sudo apt-get install guvcview Raspberry Pi + Digio2 UVCカメラの組み合わせで動いた。 これはなかなか良いかも。 Raspberry Pi + iBUFFALO BSW20KM05SVも動いた。 UVC対応カ
1年ほど前に”mbed + Wi-Fiカメラ”で、”PS Vitaで操縦するロボット”を作った。 ・PS Vitaで操縦するロボットを作ってみた。 今回はRaspberry Piの勉強のために、”Raspberry Pi + USBカメラ”で同じものを作ってみることにした。 Raspberry Piには、VNCサーバを入れ、無線LAN経由で操作できるようにしてあるので、キーボード、マウス、ディスプレイは接続していない。 ロボットの車体は前回のものを流用することにした。 PS Vita側のソフトも前回のものをベースにする。 (PS Vitaのアプリを作るのにはPSMパブリッシャー・ライセンスが必要だが、現在は期間限定で無料) 新しく作る必要があるのは、 ・Raspberry PiでRCサーボモータの制御 ・PS VitaとRaspberry Pi間のTCP通信 ・Raspberry Piから
KinectとProcessingを使ってFingerTrackingができないか調べていたところ、これを見つけたので試してみた。 Kinect + Processing + SimpleOpenNI を使ったFingerTracking ・FingerTracker 私は通常 Kinect SDK を使用しているので、Kinect SDKとOpenNIを共存させることができるこれを使用した。 ・kinect-mssdk-openni-bridge (Kinect SDKもProcessing から使えるようになったようだ。ただ、OpenNIのNiteに相当するものがないのが残念。追記2012.12.12) ということで、 Kinect SDK v1.6 + kinect-mssdk-openni-bridge + OpenNI + SimpleOpenNI + Processing とい
Android端末とmbedをUSBシリアルで接続してRPC(remote procedure call)の実験をしましたので、その手順をまとめてみました。 この記事は、ある程度Androidやmbedの開発経験がある方を対象にしていますので、ツール類の操作方法の細かい説明は省略しています。 1.必要なもの ・mbed側 (1)mbed NXP LPC1768 mbedを初めて使う方はこちらをどうぞ。 (2)”RPC Over Serial” mbedのUSBシリアル経由でRPCを使えるようにするプログラムです。 mbed RPCの日本語解説はこちら。 ・Android端末側 (1)USBホスト機能が使えるAndroid端末 私が動作確認したのは "Google Nexus7" です。 (2)USBホスト変換ケーブル 私が使用したのはこれ。 iBUFFALO USB(microB to A
Android端末とmbedをBluetooth SPPで接続する実験をしましたので、その手順をまとめてみました。 以前使っていた”myBlueUSB”は、最近うまくコンパイルできなくなってしまったようなので、”Norimasa Okamoto”さんが公開してくださっている”BTstack”を使ってみました。 この記事は、ある程度Androidやmbedの開発経験がある方を対象にしていますので、ツール類の操作方法の細かい説明は省略しています。 1.必要なもの ・mbed側 (1)mbed NXP LPC1768 (2)StarBoard Orange または、USBコネクタ(Aタイプ メス ) StarBoard Orangeではなく、USBコネクタ(Aタイプ メス )だけでも良いです。こちらで詳細に解説されていますので参考にしてください。 (3)BTstack mbedでBluetoot
Kinect SDK v1.6のサンプル「Speech Basic-WPF」を見てたら、カメの代わりに近藤科学の多脚ロボットKMR-M6を動かしてみたくなった。 ということで、「Speech Basic-WPF」のソースを見てみる。 これでKMR-M6を動かすようにするのはそんなに難しくないな。 このSpeechRecognized関数にKMR-M6との通信を追加して、音声コマンドに対応するモーションを再生するようにすればいい。 とりあえず日本語を認識するように改造しよう。 ここを参考に「Speech Basic-WPF」の日本語化、簡単にできた。 ・Kinect for Windowsで機器を作るヒント(4) ―― 日本語の音声認識をやってみる 音声合成も簡単にできるみたいだ。ついでにkinectの音声認識と組み合わせてみる。 ここを参考にさせていただいた。 ・Speech Platfo
以前からmbedでUSB Webカメラが使えたら良いなと思っていたら、”LifeCam”というプログラムを公開している方がいたので早速試させていただいた。 で...すごい動いた。撮れた画像はこれ。(作者さんに感謝!!) 160x120 実験した構成はこれ。 USBメモリにカメラ画像が保存される。 カメラはいくつか試したが、UVCなカメラでもMJPEG圧縮に対応してないとダメなようだ。 (ELECOMのカメラは箱の裏にMJPEG圧縮対応かどうか書いてあった。) 今回、カメラは1台しか使わないので、以下のようにカメラ数を変更した。 実験に使用したWebカメラ”ELECOM UCAM-DLA200HBK”は、一箇所コメントアウトするだけで動いた。 ”LifeCam”が動くことが確認できたので、これを改造して、mbed + UVC対応Webカメラ + LAN ->UDPで画像送信->PCで画像表示
ここでは、(その1)で使ったプログラムの紹介をします。 【”Lifecam”をUDP画像送信に改造】 手順1 必要なプログラムをインポートする。 ”LifeCam”をインポートする。 ”LifeCam”に、”EthernetNetIf”ライブラリをインポートする。 手順2 ソースコード修正 ”intervalcamera.cpp”を以下のように修正する。 変更点が分かるようにオリジナル部分はコメントとして残してあるので、少し見づらくなってしまったかもしれない。 送信先アドレスは、必要に応じて変更する必要がある。 Webカメラ”ELECOM UCAM-DLA200HBK”を使用するとき。 手順3 動作確認 DHCPを使っているので、DHCPサーバがある環境で動かす必要がある。 -以上― 【PS VitaでUDP受信した画像を表示】 手順1 プロジェクト作成 PlayStation Suite
【概要】 PC(Processing)からLAN(TCP)通信でコマンドを受けて、mbed側でRCサーボモータを制御する。 ベースボードにはStarBoard Orangeを使用した。 RCサーボモータの電源+5VはUSBからは取らずに、ACアダプターから供給する。 Processing側のプログラムは(その2)を参照してください。 【配線】(サーボ1個分のみ示す) mbed側 RCサーボモータ側(メーカによって色が異なるので注意) P21 ―――――――― 白(黄) VIN ―――――――― 赤 GND ―――――――― 黒 【通信コマンドのフォーマット】 【mbed側のプログラム】 以下のライブラリをインポートしておく。 ・EthernetNetIf ・Servo ・TextLCD (必要に応じて) //---- ここから ------------------
Kinect SDK 1.5付属のFacetrackingサンプルプログラムを改造して、顔の回転角をTCPへ出力してみた。 【手順1】サンプルプログラムのソースをインストールする。 ”FaceTrackingBasics-WPF”を適当なディレクトリにインストールする。 【手順2】プログラムを改造する。 ”FaceTrackingBasics-WPF”のソリューションを開く。 ”FaceTrackingViewer.xaml.cs”を開き、下記赤枠のように追加する。 参考として、シリアルポートに出力する例もコメントに入れてある。 注意:異常処理は手抜きしているので必要に応じて追加してください。 ------------------------------ 途中省略 -------------------------------------- ----------------------
トランジスタ技術2012年3月号の特集で使っていたカメラモジュールが面白そうだったので、mbedでも使えないか実験してみた。 特集で使っているカメラモジュールには頒布カメラAと、頒布カメラBの2種類ある。 カメラAは動作電圧が3.0Vまでで、外部から24MHzクロックを入れてやる必要がある。 カメラBは動作電圧3.3Vでクロック内蔵だから、外付け部品なしでmbedに直結出来そうだ。 さっそくトラ技カメラBを入手して配線。 色々調べてみたら、すでにmbed + トラ技カメラBを動かしてプログラムを公開している方がいたので、ありがたく使わせていただくことにした。 ここのプログラムをインポートして試してみたらすんなり動いた。 ・OV7670_with_AL422B_QQVGA_test mbedとカメラBの配線は直結で良かったが、SCL端子は2.2Kの抵抗で3.3Vにプルアップが必要だった。 こ
Processingを使ったカラートラッキングをやってみた。 今度のは無線LANカメラじゃなくて普通のUSBカメラを使っている。 画像処理もOpenCVを使わずにシンプル。 ここを参考にさせてもらった。 自分の用途ではOpenCVを使わなくてもこれで十分だな。 動画はこちら 速い動きにも追従している。 転がるボールにもある程度追従できる。 次はこれをmbed+RCサーボモータで… mbed + RCサーボモータ + USBカメラできた。 構成は、Windows7 PC + USBカメラ + mbed + RCサーボ。 PC上のProcessingでUSBカメラ画像を処理して、USBシリアル変換モジュール経由でmbedにサーボ指令値を送っている。 どうもmbedのUSBシリアルドライバーとProcessingのシリアルライブラリは相性が悪いみたい。 仕方がないので、別途USBシリアル変換モジ
ProcessingでKinectを使ってみた。 動作環境は以下の通り。 OS : Windows7 64bit OpenNI : openni-win32-1.5.2.23-dev.msi NITE : nite-win32-1.5.2.21-dev.msi SensorKinect : avin2-SensorKinect-faf4994.zip simple-openni : SimpleOpenNI-0.24-win32.zip NyARToolkit for processing : nyar4psg-1.1.7.zip ファイルの入手先はこちら http://www.openni.org/Downloads/OpenNIModules.aspx https://github.com/avin2/SensorKinect http://code.google.com/p/simp
Processing + mbed + 無線LANカメラで物体追跡ロボットを製作。 以前作ったProcessingを使ったカラートラッキングをベースに物体追跡ロボットをつくる。 ・車体ベース構成 タミヤのユニバーサルプレートとTTLシリアルコマンド式のDynamixel AX-18Aサーボを使用。 サーボはEndless Turnモードにしている。 ・カメラ首振り用サーボ 普通のPWM式RCサーボモータを使用。 ・無線LANカメラ PLANEXの小型無線LANカメラCS-W07G-CY使用。 ・カメラを取り付けるとこんな感じ ・mbed搭載 mbedでサーボモータを制御。 現在は、USBシリアル変換モジュール経由でPC(Windows7)と通信している。 将来的には、Bluetooth SPP接続にする予定。 制御ソフトはこれを無線LAN用に改造して使用している。 処理の流れは、 無線LA
ProcessingでPLANEXの小型無線LANカメラCS-W07G-CYの画像表示をやってみた。 プログラムは以下の通り。超簡単。 (必要に応じ、事前にカメラの設定をインフラストラクチャモードにし、IPアドレスを変更しておくこと。CS-W07G-CYユーザーズマニュアル参照。) //-------------------------------------------------------------------------- PImage online; String url; void setup() { url = "http://192.168.1.100/?action=snapshot"; //IPアドレスは自分の環境に合わせて変更する。 size(320, 240); } void draw() { online = loadImage(url, "jpg"); ima
Android端末で無線LANカメラの画像を表示してみた。 使用したのは、 Android端末 : Acer ICONIA TAB A500 無線LANカメラ : PLANEX CS-W07G-CY ・とりあえずwebview.loadUrl()を使って無線LANカメラ画像を表示するところまではすぐできた。 -----途中省略、要点のみ--------------------------------------------------------- public void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); WebView webview = new WebView(this); setContentView(webview); webview.loadUrl("http://1
小型無線LANカメラとmbedで物体追跡をやってみた。 無線LANカメラはPLANEXのCS-W07G-CY使用。小さく扱いやすくてなかなか良いのだが、結構熱くなる。 カメラ画像はPC(Windows 7)上のOpenCVで処理している。 OpenCVのサンプル”CamShiftDemo”をベースに、C#(OpenCvSharp)に移植して使用。 PCとmbed間はBluetooth接続。サーボ指令値だけをmbedに送っている。 無線LANカメラ->無線LAN->PC(OpenCVで画像処理)->Bluetooth(サーボ指令値)->mbed->RCサーボ、という流れ。 物体追跡時の動画はこちら。 物体追跡時のPC側画面はこちら。 画像の動きがぎこちなく見えるのは、動画を作るための画面キャプチャがコマ落ちしているため。^ ^;) 今わかっている問題点。 1.物体の動きが速いと物体の画像がブ
小型無線LANカメラと多脚ロボットKMR-M6で物体追跡ロボットを作ってみた。 物体追跡の詳細についてはこちらをどうぞ。 無線LANカメラはPLANEXのCS-W07G-CY使用。 画像はPC上のOpenCVで処理。PCとKMR-M6間は有線シリアル接続。 無線LANカメラ->無線LAN->PC(OpenCV)->有線シリアル->KMR-M6、という流れ。 有線シリアル通信部分はいずれ無線接続にしたい。 今回無線LANカメラ用のバッテリは、USB対応モバイル電源パック使用。 黒にしておけば良かったかな。 USB出力が2つあるのでいずれmbedを搭載するときにも使う予定。 動画はこちら。 その1:まだデバッグ中。 その2:動きが少し改良された。 実験用にカラーボール入手。 つづく...
Android端末(ICONIA TAB A500)からbluetooth spp接続でmbed+サーボを動かしてみました。 mbedのbluetooth spp接続についてはこちらをどうぞ。 部品構成は以下の通りです。 ・mbed NXP LPC1768 と StarBoard Orange ・USB Bluetoothドングル 私がいつも使っているのは、次の2種類です。 PLANEX Bluetooth ver2.1+EDR BTMICROEDR1XZ PLANEX Bluetooth Ver3.0+EDR BT-Micro3E1XZ ・RCサーボモータ 組み立てるとこんな感じ。ちょっとゴチャゴチャしてます。(^ ^;) ・使用したAndroid端末(ICONIA TAB A500) Android端末側のUIはこんな感じ。 タッチパネルで操作します。 ― 以上 -
Android端末とmbedをBluetooth SPPで接続する実験をしましたので、その手順をまとめてみました。 ここで使用しているmbedでBluetooth SPP接続がつかえるようにするプログラム”myBlueUSB”は、まだ開発中で時々更新されているようです。 したがって、この通りやってもうまくいかない場合があるかもしれませんのでご承知おきください。 またこの記事は、ある程度Androidやmbedの開発経験がある方を対象にしていますので、ツール類の操作方法の細かい説明は省略しています。 ”5.補足1 Window PCと接続したい場合”を追記しました。 2011.11.7 ”6.捕足2 btserialクラスを使って通信する場合”を追記しました。2012.3.4 1.必要なもの ・mbed側 (1)mbed NXP LPC1768 mbedを初めて使う方はこちらをどうぞ。 (2
PS3_BlueUSBを使用して、mbedとPS3コントローラをBluetoothで接続する実験に成功しましたので、その手順をまとめてみました。 ある程度mbedを使ったことがある方を対象にしていますので、mbedの細かい使い方の説明は省略しています。 1.必要なもの (1)mbed NXP LPC1768 (2)StarBoard Orange または、USBコネクタ(Aタイプ メス ) StarBoard Orangeではなく、USBコネクタ(Aタイプ メス )だけでも良いです。こちらで詳細に解説されていますので参考にしてください。 (3)PS3_BlueUSB (4)Windows serial port driver (5)USB Bluetoothドングル 私が動作確認したのは、次の3つです。 PLANEX Bluetooth ver2.1+EDR BTMICROEDR1XZ P
【注意】以下の手順は、私が試行錯誤で調べたものを、参考のためにまとめたものです。 間違い勘違い等があるかもしれませんので、その場合はご了承ください。 また、もっと簡単な方法があるかもしれません。 【追記'10.12.16】"SamplesConfig.xml"をコピーする手順がもれていたので追記しました。 1.開発環境 OS:Windows XP 使用言語:C++(Visual C++ 2010 Express) ベースソフト:ARToolKit "ARToolKit-2.72.1-bin-win32.zip" :OpenNI "OPENNI-Win32-1.0.0.23.exe" :NITE "NITE-Win32-1.3.0.17.exe" :Driver "avin2-SensorKinect-XXXXX.zip" ARToolKit、OpenN
次のページ
このページを最初にブックマークしてみませんか?
『blog.goo.ne.jp』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く