サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ドラクエ3
bril-tech.blogspot.com
ソースコードはGithubにあります(ページ下部のリンク先参照)。 はじめに オブジェクトの認識はロボットが現実の環境のなかで自律的に行動できるためには重要な技術です。LiDARやRGBDカメラといったセンシング技術はロボットにとって必要な豊富な3D情報を提供する重要な技術となっています。しかしながらこの情報は大量のPointCloudデータであり、効率的に処理するのは難しいのが現状です。本稿では「VoxcelChain」を提案します。VoxcelChainはディープラーニング(深層学習)による3次元形状の畳み込みニューラルネットワークを利用することにより、この問題を解決します。 VoxcelChainとはディープラーニング (深層学習)を使用た3次元形状の一般物体認識プログラムです。VoxcelChainは3次元畳み込みニューラルネットワークで、畳み込み層とプーリング層の2種類の層を交互
【ゲームパッド操作の実装】 HoloLensでゲームパッドのイベントを取得するには、UnityのInputクラスでは行えず、WindowsランタイムAPIである、Windows.Gaming.Input APIを利用する必要があります。Windows.Gaming.Inputについては公式リファレンスをご確認ください。 また、UnityスクリプトからWindowsランタイムAPIを扱うには、Player Settingsの設定とdefineによるコードの書き分けが必要です。Player Settingsの変更はPublishing Settingsのcompilation overridesを「Use Net Core」もしくは「Use Net Core Partially」に設定すればよいです。 XboxOneControllerの実際のソースコードは以下のものです。 using Uni
それではROSの開発環境をインストールしていきます。現在ROSの最新バージョンは「Kinetic Kame」ですが、ここでは「Indigo Igloo」を使用します。というのも、このバージョンはユーザーも多く、サポートする周辺のライブラリも多いため、最初はこのバージョンを選択しておくのが無難だからです。 PCとOSの準備 OSは「Ubuntu 14.04LTS」をインストールします。インストール方法は検索すれば多くの情報が得られますので参考にしてください。 http://releases.ubuntu.com/14.04/ ROS Indigo Iglooのインストール それではROSをインストールしています。次のコマンドを実行します。 sudo sh -c 'echo "deb http://packages.ros.org/ros/ubuntu trusty main" > /etc/
<!-- =============== Transmission =============== --> <transmission name="left_wheel_trans"> <type>transmission_interface/SimpleTransmission</type> <joint name="left_wheel_joint"> <hardwareInterface>VelocityJointInterface</hardwareInterface> </joint> <actuator name="left_wheel_motor"> <hardwareInterface>VelocityJointInterface</hardwareInterface> <mechanicalReduction>30</mechanicalReduction> </actu
皆さんは、「ロボット開発」と聞いてどんなイメージをお持ちでしょうか。「難しい」「専門知識が必要」「大量のプログラミングが必要」そんなイメージの方も多いのではないでしょうか。本連載ではROSを使用することで手軽に「ロボット開発」を行います。ROSではロボットの「シミュレータ」環境も充実しており、「動作するロボット」がなくても開発することが可能です。 本連載ではROSを使って差動二輪ロボットを作成し、シミュレータ上でうごかしていきます。連載を通じてROSのイメージを掴んていくことができます。また実際のToFセンサーも扱います。実際に動くロボットも作成していきます。 ROSとは ROS (Robot Operating System)はソフトウェア開発者のロボット・アプリケーション作成を支援するライブラリとツールを提供するオープンソースソフトウェアです。 Willow Garage社が開発し現在
法人向けHoloLens(Commercial Suite)が発売!追加された新機能とは?等の最新情報に加え、HoloLensに関する基本的な知識を今回の記事で書いていきます。次回、Part3の記事では、遂にHoloLens開発の中身を書いていきますのでご期待ください!
HoloLensの実機を使ったからこそ分かったことを装着感・空間把握・視野・酔い・ジェスチャー操作・HoloLensに向いている用途・向いていない用途という7項目に分けて書いていきます。
Android 5.0 Lollipopで追加されたandroid.hardware.camera2を使うことで、
http://developer.android.com/intl/ja/about/versions/jelly-bean.html から引用 この記事は以下の記事の続きになります。 [第一回] 生活で使えるBLEデバイス はじめに 前回の記事では、BluetoothとBLEおさらいをしました。 では今回はAndroid端末からのBLEデバイス検知とペアリングを行う方法を紹介します。 環境
iBeaconで使えるビーコンがなんとか3つ揃いましたので、測位を試してみました。 使用したビーコン iPhone5c(Peripheralとして動作するiPhoneアプリ) BLE Mini (RedBearLab社) RaspberryPI(+ Bluz iBeacon) どれも同じUUIDを使用。Major番号も統一し、Minor番号をそれぞれ1、2、3と設定。 あと、Central用に、iPhone5を使用。 使用したサンプルプログラム https://developer.apple.com/downloads/download.action?path=wwdc_2013/wwdc_2013_sample_code/ios_airlocate.zip (計算したビーコンからの距離が視覚的にわかるように修正して使いました。) CentralのiPhone5にインストールしました。 測
http://googledevelopers.blogspot.jp/2015/07/lighting-way-with-ble-beacons.html から引用 はじめに
Android6.0 Marshmallow (マシュマロ)では、テキスト選択(Text Selection)の動作が仕様変更となりました。これまでは、テキスト選択時に画面上部のアクションバー(Action Bar)という部分に、コピー、貼り付け、切り取り、などのメニューが表示されていましたが、今回の仕様変更によってアクションバーへの表示はなくなり、選択した文字列のすぐ近くにメニューバーが表示されるようになりました。これによって、ユーザーはテキスト選択時に、選んだ文字列からあまり視線を離すことなく、メニューを選ぶことができるようになります。今回は、そのテキストビューの変更とバックグラウンド機能として導入されたフローティングアクションバー(Floating Action Bar)について簡単に紹介したいと思います。
MediaCodecクラスの登場などにより、AudioTrackクラスを使う機会が増えてきました。そこでAudioTrackクラスの使い方について、メディア用語の解説も交えて解説していきます。 ■AudioTrackクラス リニアPCMの音声データを再生するためのクラスです。MediaPlayerクラスなどで再生するよりも使用方法は複雑ですが、バッファの扱いや音声の再生位置の確認などについて細かく制御することができます。 ■AudioTrackによる再生の流れ AudioTrackクラスの使い方の前に、AudioTrackクラスを使用するとどのような流れで音声が再生されるかを説明します。 ・ AudioTrack 音声データの制御(書き込み、再生や停止など)を行います。 ・AudioManager 再生ボリュームなどをコントロールします。 ・AudioSystem AudioFlinger
はじめに 今回は手頃な価格で人気上昇中の中華IoTモジュールについて その開発方法や注意事項について紹介いたします。 注意事項 - 本記の掲載内容について 今回の記事に掲載されている内容について一部非公式な情報を含んでおります。 そのため弊社側では記事内容を用いたことによる損害や責任等については負いかねますので、あらかじめ了承ください。 安価でも実力派の中華IoTモジュール ・なぜ安価になるのか 今までのIoT向けチップはスマホやタブレット向けに開発された無線チップと汎用の32ビットマイコンを組み合わせた構成が多数を占めています。 しかしこの構成では無線チップとマイコンで製品価格が決まってしまうため抜本的なコストダウンを行うことができませんでした。また国内では小型化に迫られて力技でSIPモジュール化してしまったものもありさらにコストが上がる要因となっています。 今回紹介するモジュールの特徴
腕、手首、指の動きで様々なデバイスをコントロールできるMyo。本記事ではこのMyoの特徴と、利用シーンを考えたいと思います。 ▲[外部] Myo The Lab より抜粋 myoとは myoは、 Thalmic Labs 社によって開発された、腕、手首、指の動きで様々なデバイスをコントロールできるアームバンドで、 手首や指の動きのトラッキングに筋電センサーが使われてるのが特徴です。 筋電センサーとは、筋肉を動かす時に発生する微小電圧を計測するセンサーのことで、この電圧で手首や指の動きを感知することができます。 またmyoは、加速度センサ、ジャイロスコープ、磁気センサも搭載しており、腕の向きや動きをトラッキングするのに使われます。 アウトプットとしては、充電や接続を知らせるLEDと、ジェスチャーが認識されたことを知らせるバイブレータを搭載。 端末との接続はBLEが使われています。 このmyo
Appleが毎年開発しているWWDCが現地時間の6月9日から始まりました。 キーノートでは「Mac OS X」「iOS」「watchOS」のそれぞれのアップデート内容が発表されました。 Mac OS X 次バージョンの名前はEl Capitanです。 余談ですが、El Capitanはヨセミテの中にあるようです。 メール iOSのような操作でメールの削除などができるようになりました。 また、別窓(例えばウェブ画面)から作成中のメールに画像を添付することができるようになりました。 Safari タブを左側に溜められるようになりました。 また、音声再生中ならば検索窓に音声を静音することができます。 検索 あいまい検索やスポーツ結果・天気なども検索できるようになりました。 2分割機能 文字通りウィンドウを2分割する機能です。 今まではサードパーティアプリを導入しなければならなかったので 個人的に
2015年5月29日金曜日 Android ”M” の新機能まとめ in Google I/O 2015 2015年5月29日金曜日 7:22 by 矢野直輝 with No comments Googleが毎年開催している開発者向けの一大イベント「Google I/O」が2015年5月28日に開催されました。今回は次期OSである「Android M」他、「Brillo」や「Wear」など幅広い分野で活躍するであろうデバイスやサービスが発表されました。 Android "M" 昨年のGoogleI/Oに続き今年も新しいAndroidが 発表されました! その名も”M”! マカロン? マカデミアナッツクッキー? まんじゅう? 正式名は発表されなかったので秋までのお楽しみになりました。 Android M では、原点に戻り基本的な品質の向上、バグの修正が行われています。昨年発表
はじめに 前回はmbedを使用したBLEデバイスとAndroid 4.4および5.0でBLE接続に必要な実装について掲載いたしましたが、今回は4種類のGATTアクセスに着目して、それぞれの動作と実装方法について紹介いたします。 関連記事 BluetoothSMARTデバイスをmbed で開発する(1) BluetoothSMARTデバイスをmbed で開発する(2) BluetoothSMARTデバイスをmbed で開発する(3) BluetoothSMARTデバイスをmbed で開発する(4) BluetoothSMARTデバイスをmbed で開発する(5) BluetoothSMARTデバイスをmbed で開発する(7) BluetoothSMARTデバイスをmbed で開発する(8) ARMは、ARM Limited(またはその子会社)のEUまたはその他の国における登録商標です。mb
本ブログ「屋内測位をやってみました」で、始めた屋内測位ですが、あれからいろいろやってみて、だいぶまともに動くようになってきました。今回はある会議室にビーコンをだいたい3m四方に12個配置しました。使用したビーコンは、Estimote社のものを使っています。このビーコン出力が弱いため、精度を出すには3mという短い間隔で置くしかありませんでした。使用した測位アルゴリズムも、トリラテレーション(Trilateration)ではなく、近辺のビーコン位置にRSSI値をもとにした加重平均をとる方法を採用しました。 では、実際の実験の様子をご覧ください。 動画は実行の様子ですが、予め会議室のマップやビーコンの位置と校正値は設定しておく必要があります。 会議室の様子 会議室のマップの設定の様子
はじめに 本記事は、Googleから発表されているAndroid Autoの特徴や機能に関してまとめた記事です。 Android Autoの現在使用可能な機能、将来的に使用出来る機能およびそのアプリケーションの構成に関して、大きく分けて以下のようにまとめています。(2015/03/13時点) Android Autoとは Android Autoの動作環境 Android Appについて 今後の展望について ※本記事を記載するにあたって、以下のURLを参考にしております。 Android Auto公式 Android Auto: The right information for the road ahead Android Auto Demo at Google I/O 2014 Google Developers Building Apps for Auto Devbytes Andr
※Android Auto公式サイトより引用 http://www.android.com/auto/ 本日、ついにAndroid AutoのAPIが公開されました。 Android Autoとは、車のカーナビのような車載デバイスとAndroid端末を連動するシステムです。Android Autoアプリを作るための環境構築方法についてまとめました。 Android Autoに対応したアプリをAndroid端末に入れて、車載デバイスと接続することで、車載デバイス側でアプリの画面を表示したり、操作することができます。 APIは以下の公式サイトで説明されています。 http://developer.android.com/training/auto/start/index.html 現状では、以下の2種類のアプリに対応しています。 オーディオ系アプリ・・・車の中でオーディオコンテンツを再生するこ
はじめに これまで3回に渡ってnRF51822ブランクモジュールをARM mbed 対応機器にするための方法について掲載してきましたが、今回から mbedによるBLEプログラミング実践編をスタートいたします。 関連記事 BluetoothSMARTデバイスをmbed で開発する(1) BluetoothSMARTデバイスをmbed で開発する(2) BluetoothSMARTデバイスをmbed で開発する(3) BluetoothSMARTデバイスをmbed で開発する(5) BluetoothSMARTデバイスをmbed で開発する(6) BluetoothSMARTデバイスをmbed で開発する(7) BluetoothSMARTデバイスをmbed で開発する(8) ARMは、ARM Limited(またはその子会社)のEUまたはその他の国における登録商標です。mbedは、ARM L
はじめに NordicのnRF51ブランクモジュールは、法的面でBluetooth SMARTアクセサリ製造への敷居を下げてくれるという期待感から注目されていましたが、モジュール使用にあたって技術面でのハードルが高いところがあり、まだユーザーが増えていないのが現状のようです。 そこで今回は個人レベルでも試作が可能となるような試みとして、nRF51ブランクモジュールのDIP基板化と ARM® mbed™ を使った開発について紹介いたします。 関連記事 BluetoothSMARTデバイスをmbed で開発する(2) BluetoothSMARTデバイスをmbed で開発する(3) BluetoothSMARTデバイスをmbed で開発する(4) BluetoothSMARTデバイスをmbed で開発する(5) BluetoothSMARTデバイスをmbed で開発する(6) Bluetoot
「シナリオ内で入力内容を変えて何度も繰り返し実行させるような耐久テストを行いたい」「シナリオは同じだが様々な入力内容でテストを行いたい」といったテストもCognizant ITSではGUIを使って簡単に行うことが可能です。 今回は毎回違う文字を入力してはチェックをするというテストを繰り返す方法を説明したいと思います。
このページを最初にブックマークしてみませんか?
『BRILLIANTSERVICE TECHNICAL BLOG』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く