エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ロボットボールSpheroをLeap Motionでジェスチャー認識してコントロールしてみた - Okiraku Programming
Leap Motionで手の位置やジェスチャーを認識し、それに合わせてロボットボールSpheroを走らせてみました... Leap Motionで手の位置やジェスチャーを認識し、それに合わせてロボットボールSpheroを走らせてみました。 手を握った状態から開くと、コントロール開始。 手を開いたときの位置を基準に、前後左右に手を動かすだけで、Spheroを思うがままに走らせることができます。手を大きく動かせば高速に、少しだけ動かせばゆっくりに。 Leap Motionによる認識結果はWebブラウザ上に表示されます。上の動画中ではブラウザをフルスクリーン表示にしてあります。この可視化部分まではSDKのサンプルそのままです。サンプルにWebSocket経由で認識結果を送るコードを追加し、それをRubyのスクリプトで受け取ってSpheroのコントロールを行っています。 コードはGitHubにあります。 実行にはLeap MotionのJavaScript SDK、およびrubyのSpheroライブラリ(gem in
2013/11/30 リンク