Keil Studio Cloud Arm's IDE for IoT, embedded and Mbed development
mbedでHTTPServerをテストして、PCのブラウザからのHTTPリクエストでmbed内の関数を実行してみました。 (javascriptのページからの実行と、URLのみによる実行) 流れ的には、 1.HTTPServerをとりあえずうごかす 2.RPC InterfaceでI/Oポートをブラウザから操作する 3.RPC Functionで関数をブラウザから操作する となります。 大筋、yueee_ytさんのページにありました。 @jksoft913さんのmbed入門P62~の記事とjavascriptの書き方が違うので両方参考になります。 たぶんここまでで、javascriptを使ってポートを叩いたり関数呼び出したりできるんじゃないでしょうか。 ここまではPCのブラウザからできるはずです。 自分の場合、mbedのHTTPClientからリクエストを送りたいと思ったので、javasc
WebSocket関連で検索するのがほぼ日課みたいなものとなっています。 そんなある日、mbedというものを見つけました。 mbedとは? 私も触り始めたばかりで偉そうに説明できるほどではありませんが、第一印象として「簡単」ということ。 54mmx26mmの小さな基盤にARMのCPUが搭載されたものです。 青い基盤のもの(mbed NXP LPC1768)と、黄色い基盤のもの(mbed NXP LPC11U24)ものとがあります。(他にもいくつか種類があるみたいです。) 青い方はARM Cortex-M3を搭載しており、黄色い方はスペックを落として低消費電力化したものとなっており、ARM Cortex-M0を搭載しています。アキバではマルツや千石電商、秋月電子などで入手可能です。 開発用IDEがクラウドで用意されており、いつでもどこでもブラウザ上で開発ができるというのが素晴らしいところです
小型無線LANカメラとmbedで物体追跡をやってみた。 無線LANカメラはPLANEXのCS-W07G-CY使用。小さく扱いやすくてなかなか良いのだが、結構熱くなる。 カメラ画像はPC(Windows 7)上のOpenCVで処理している。 OpenCVのサンプル”CamShiftDemo”をベースに、C#(OpenCvSharp)に移植して使用。 PCとmbed間はBluetooth接続。サーボ指令値だけをmbedに送っている。 無線LANカメラ->無線LAN->PC(OpenCVで画像処理)->Bluetooth(サーボ指令値)->mbed->RCサーボ、という流れ。 物体追跡時の動画はこちら。 物体追跡時のPC側画面はこちら。 画像の動きがぎこちなく見えるのは、動画を作るための画面キャプチャがコマ落ちしているため。^ ^;) 今わかっている問題点。 1.物体の動きが速いと物体の画像がブ
マイコン評価ボード「mbed」、高速プロトタイピングがなぜ可能なのか:組み込み技術(1/2 ページ) マイコンメーカー各社は、マイコンの評価ボードを使いやすくするために工夫してきた。USBでPCにつながるようになっていて、開発ツールも付属するものが多い。しかし、それでも使いやすいとは言いにくいのが現状だ。 マイコンメーカー各社は、マイコンの評価ボードを使いやすくするために工夫してきた。USBでPCにつながるようになっていて、開発ツールも付属するものが多い。登録ユーザー向けに無償ダウンロードで開発ツールを提供するメーカーもある。しかし、それでも使いやすいとは言いにくいのが現状だ。 開発ツールは使い始めが面倒だ 使いやすくないのは、面倒な作業が幾つか残っているからだ。まず、開発ツールをPCにインストールしなければならない。自分のPCのOSに開発ツールが対応していない場合は、PCを新たに用意する
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く