サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
装丁を味わう
takesan.hatenablog.com
今回は Jetson nanoにインストールしたOpenFrameworksから、OpecCVとDarknet(YOLO)を動かす方法を書きます。 Jetson nanoでAI系のソフトをインストールして動かしてみたけれど、これを利用して自分の目標とする「何か」を作るとき、その先膨大な解説と格闘しなければならず、大概行き詰まってしまいます。また、nanoはPI3に比べれば早いといってもIntel の汎用CPUに比べると1/4位のスピード。AIエンジンを利用して応用ソフトを組む場合、インタープリタ型言語であるPython等を使うと、応用部分であきらかに遅くなってしまう傾向がある点は否めません。CythonやSWIGを使えば早くなりますが、結局C言語に戻ってしまうことになります。やはり最初からCやC++等を使って、なるべくCPU処理部分のスピードを上げるのがnanoでは得策と思われます。AIの
今回は今年のMaker faire tokyoで使ったAIジャンケンのデータ作成方法を書くことにします。AIの専門家では無いので、固有名詞の間違いはご容赦願います。 今回のデータを使ってジャンケンの手をリアルタイム認識させています。 YOLOを使った画像認識が早いのは分かりました。ただし練習でおおーっと思った画像認識に使うデータは、他人が用意したものです。自分の必要なデータをどんな用途で使うかで価値が決まって来ますよね。 用意する学習データは1クラス数千枚単位ですから、アマチュアではチョットって感じです。せっかく苦労して用意しても、使えなかったら何にもならないわけで、今回は「データー作成はそれほどでもなかった」的な記事です。メイカーフェア出展に向けて、サーモグラフィーを利用したジャンケン認識用画像の種類は3クラスとなりますが、これ以上のクラス数でも作成方法の基本は同じです。 次回は学習済み
Jetson nanoが発売されました。 一応NvidiaですからAI分野に特化したボードってことになりますが、Pi3 B+にMobidiusを追加した価格より、機能面を考慮すると大幅に安いというような衝撃的な仕様でもあります。 実際はどうなのかってのが今回の内容。NvidiaのJetson関連ボードはTK1から始まってTX1、TX2、Xavierとなってますが、今回のボードはTK1とTX1の中間ぐらいの構成になってます。 いつものように、メーカーの宣伝が派手なので本当のところは?って、誰でも思うところだと思います。私の理想とする環境はかなり偏ってるので、そのつもりで読んでいただければと思います。 OSのインストールは超簡単。 今までのTXシリーズは内部eMMc起動のために煩わしい手順が必要でした。今回はそれをやめてSSDブートに変更したため、インストールで引っかかりにくくなりました。メー
JETSON XAVIER(ザビエル)が来た 今回は発売間もないザビエルを手に入れたので、簡単なテストやインストール結果などを書くことにします。若くは無いので開封の儀は、止めておきます。 本体は、プレゼン写真で見る限りエンジニアリングプラスチックかと思っていましたが、アルミダイキャスト製でずっしりと重い立派なものでした(ノートパソコン1個分ですからトーゼン)。性能に関してはメーカーの資料を見て下さい。内部eMMC容量以外は現状不満の無い内容です。CPUは最大8個すべて2.2Gで動きます。 USBCが2カ所付いているのでいろいろなものが接続できそうです。TX2と違ってWIFIが付いていないのですがUSBドングルでなんとかなりそう。 直ぐに始められるというキャッチが頭に入ってたので、ケーブル類をつないで、パワースイッチを入ればなんとかなると思ってました。しばらくすると何やらコマンド画面が出てき
YOLO学習済みデータをiPhoneで利用する方法は次に回して、今回は最新耳寄り情報です。 FLIR ONE Proって? iPhoneやAndroidに取り付けてスマホをサーモグラフィー化する商品で、昨年までの同名商品(FLIR ONE)は、赤外線センサーとして同社のLEPTON3が入っていました。 このカメラは、WEBカメラも取り付けてあり、2つのカメラ画像を合成して相互の弱点を補うというものです。しかし、LEPTON3は160X120画素の横長、スマホに表示される画像は縦長です。画像の比率を考慮するとLEPTON3画像のほんの1部しか使っていないことになります。ある意味つまんないですね。 私たち(渡辺、小野)の作ったThermal Cam3はWEBカメラ未搭載ですが、無線で格安、しかもLEPTON3の画像をすべて使い切っています。 また、この記事でも紹介していますが、以前のFLIR
JETSON TX1の電源が壊れてから1.5ヶ月。 交換品が戻ってきました。 Jetson TX1本体はこんな感じ 分厚いアルミの放熱版でサンドイッチされてます。 ちょうどJetpackが2.3にアップデートされていたので、最新版をインストールしてみました。最初の感想は、画面のもたつきや、起動時のHDMIディスプレイの認識不良がなくなり、市販ノートパソコン並みにとてもスムース。Bluetoothに接続した入力機器を起動時からストレスなく認識するようになりました。なぜかバージョンアップで、CPUスピードもintel Joule並みに早くなってます。下の方にZEDステレオカメラで画像測定を実行している動画を載せましたので、確認してみてください。 待った甲斐がありました。やっぱハード発売からソフト安定まで1年以上かかるんですね。また、USBにつないだWebCAMERAをやっとVideo0で認識で
Intel Jouleを色々試してみて 先月の段階で、Ubuntu developer potalよりUbuntuインストール方法が紹介されています。本体eMMCに自動的にインストールされるのですが、前回私の書いた記事より格段に簡単で、画面が安定している感じなので、今回紹介します。そしてmraaの実装と少し高度な動作確認。さらにはOpenCLの動作確認まで触れて見たいと思います。 私の最終構成です。 OpenCLまで動いちゃいました 本体内部eMMCに、Ubuntu16.04をインストールする 今月の初め(2016/12)にJouleにUbuntu14.04をインストールして、インストール煩雑さの挙句GPIO群が使えないなんて記事を書きました。その後Intel Edison ユーザー会https://www.facebook.com/groups/625317624253131/の Hir
ビックリしたこと1 金額がEdisonの4倍超になった!! 高〜〜〜〜〜い。 Mouser 価格!! ビックリしたこと2 見た目が重厚で所有満足度大。 Joule本体は安っぽさが微塵もありません。Edisonは本体がアルミ箔で覆われているような感じだったので、価格差分高級感が増しました。おまけにアルミ製の放熱板までついてます。 ボード全体が何故か重い。価格が高そうな感じ。小さなLEDが多くて楽しそう。 Kitのボードは、他のインテル製品と同様相変わらず大変クォリティがよろしい。Arduinoや馬鹿高いTX1用のサードパーティボードとは異次元。 ビックリしたこと3 スピードが速かった。 pythonが標準で付いているので。前々回使ったPython用のテストを実行してみたら12秒でした。これはPi3やTX1(その後おかしいと思ってTX1のOSをバージョンアップしてから再計測したら11.5秒前後
PimoroniからPi zeroを取り寄せたので 今回はOSがインストールできていることを前提として、Pi zeroがいったいどのくらいの実力があるか探って見ました。使ったセンサーは,WebCameraと以前WROOM-02の記事を書いた時に取り上げたFLIR Lepton赤外線カメラです。尚スピード的に不利になるので日本語環境はインストールしていません。 実行はエネループ充電池使用。 プログラムを作っている時は別として、今回の実験は全てパナソニックモバイル電源2,900mAhを使ってみました。少なくても2時間以上問題なく動作します。 Openframeworksをインストールして、いつもの3Dテストを実行。 結構早い!!。これならなんとか使えそう。(3DPrimitivesExampleの実行結果) 開発環境は、使い慣れてきたOpenframeworksを使用。Openframewor
前回の記事から約2ヶ月 その間にJETSON-TX1と言う、一昔前のGPU付きのパソコンが、PI並みに小型化されたすんごいボードを手に入れました。 ディープラーニング環境構築までかなり手間取ったのですが、一応入り口までたどり着いたので、記事にすることにしました。今話題のディープラーニングをドローンなどに組み込みやすくしたボードだそうです。ディスプレイにはPI用のIGZOディスプレイを使いました。 今回はJetpack 2.2 Ubuntu(64bit)版でcaffeとtorch7のインストールと実行までをざっと書いてみます。Jetpack 2.1(32bit)との比較などもちらっと入れてみます。Jetpacとは、OS及びGPU関連のソフトとExample群がまとまったパッケージです。 まずMacでlinuxをデュアルブート 母艦の対象は、64bit版ubuntu14.4 LTSです。余って
この前までは、 ESP-WROOM-02(以下ESP)からiPhoneへの1方向だけの通信だけでした。今回は双方向通信を実現してみます。 今回の動画です。テザリングでiPhoneのスイッチを押すとESPのLEDとLEPTONのシャッターが動く。 これを使えば、大概のことが実現可能です。iPhoneからESPを自由に操作できるし、ESPから受け取ったデータをOpenframeworksの豊富な映像処理で高速に加工してiPhoneに表示できます。コツはiPhone側のWifiをONにして、インターネット共有もONにしておくことです。これは、EdisonでのiPhoneのテザリング実験をしていなかったら思いつきませんでした。 OSC通信ってのはそのソースコードを見る限り双方向通信可能なのはわかりますけど、大概のExampleは一方通行の通信例だけです。素人では送受信ソースの合体なんてめんどくさい
ofの流れで今回はofxFaceTrackerというアドオンの紹介と、とても面白い応用例をPi2で実行させてみます。ところでofxFaceTrackerをご存知ですか?画像の顔を立体として認識することができるofの中でもメジャーなアドオンの一つです。 Openframeworksの世界で、日本で有名な多摩美術大学の田所先生もofxFaceTrackerを取り上げていて、今回実行するプログラムのソースリストを公開しています。日本でもこのような方がいらっしゃることをとても誇りに思います。 YouTubeではofxFaceTrackerを使った画像をよく見かけるのですが、どのようにソフトを作ればいいのかほとんど公開されていません。田所先生はこのアドオンを利用して俳優や絵画の顔写真を自分の顔に置き換えて表示させるサンプルのソースリストを作りました。これがとても面白い!! ただし、Pi2ではソースの
このページを最初にブックマークしてみませんか?
『Take’s diary』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く