サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
アメリカ大統領選
littlewing.hatenablog.com
Unity Cloud Build で シンボリックリンクを使うための方法を調べたのでメモ。 マルチデバイス向けのUnity開発プロジェクトや、メインプロジェクト内で、他のリポジトリの特定のフォルダ/ライブラリのみを利用したい場合、submodule と symbolic linkをよく利用します。 ローカル環境ではClone時に symbolic link 生成用のバッチ/shellを手動で実行すれば良いですが、Unity Cloud Build で利用する場合、そこも自動化する必要があります。 1. リポジトリ構成例 [Repository root] ├───Assets ├───Packages ├───ProjectSettings ├───_external │ └───SUB_REPO1 │ ├───Assets │ │ │ Scripts.meta │ │ │ │ │ └─
基本的に、以下のページにある手順で進めればNative Plugin を作成できるのですが 解説が、VS2013ベースになっているので、Visuai Studio 2017で実施した場合に ハマッた部分を、忘れないうちにスクショ付きでまとめました。 部分的にしか解説してないので、全体は以下のページを参照してください。 qiita.com Visual Studio Community 2017 Unity 2017.3.0f3 Windows 10 Fall creator update でやりました。 DLLビルド用のVSプロジェクトの準備 既存のソリューションに、DLL作成用のプロジェクトを追加する場合はこんな感じでスタート 2018/8/17追記 VS2017 update 3 ではこの部分がまた変更になっています。 * Visual Studio 2017 Update 3 以降で
http://www.flickr.com/photos/33452854@N06/8210543705 Androidではadbコマンドを使って、スクリーンショットの取得と動画キャプチャがPCからできます。 PCと端末をUSBケーブルでつないで結構簡単に実行可能です。 前提 PCにはAndroidStudioがインストールされている 端末のOSはAndroid 4.4(Kitkat)以上 端末側でUSBデバッグをONにする必要がある 録画は最大3分まで adbの場所 macの場合 ~/Library/Android/sdk/platform-tools/adb winの場合 C:\Users\username\AppData\Local\Android\sdk\platform-tools\ 2019/7/29追記 Unity 2019で、Unity Hubから、Android SDKを
1年ぶりとなりますが、HoloLens / Windows Mixed Realityのドキュメントの中から「Hologram Stability」を自分の勉強のために翻訳(意訳)しました。 元のドキュメントはこちらです。 Hologram stability 以前からあったドキュメントですが、Immersive HMDに関する記述もあるので、内容は最近更新されているかもしれません。 2017/11/11現在の内容を基に作成しています。 コードとかUnityの知識に関しては記述されておらず、アプリ設計段階で必読の基本的な動作原理とFPSの維持がなぜ重要か?の話となります。 注意事項として、 Color sequential displayのハードウェアの仕組みと、輻輳角などの眼に関する前提知識がそれほど無いため、 そのあたりの翻訳の正確性が低い可能性があります。是非、原文も参照してください
タブレットスマートフォンやPCを展示会でキオスクモードで使いたい場合のメモ Google Chrome Chromeは-kioskでKioskモードに 簡単!GoogleChromeのKIOSKモードで簡易デジタルサイネージ | EASY REVIEW スタートアップに登録すればよいかな Windows10 Windowsは10は Windows 10 Pro, Windows 10 Enterprise and Windows 10 Education ならKIOSKモードがある www.thewindowsclub.com Mac OS iphone-apple.net Android KIOSKにするアプリなど play.google.com andronavi.com iOS www.digitalsignage-kure.jp その他役に立ちそうなもの Anker PowerHo
ラズパイにWindwos10をインストールして、アプリケーションを実行してみました。 意外と大変だったので、その顛末をメモ。 実施した内容(お品書き) Raspberry PI 2 にWindows 10 IoT Core をインストール ラズパイ上のWindows 10 IoT Core の基本的な設定(無線LANの設定) ノートPCにVisual Studio 2015 をインストール Visual Studio でサンプルアプリケーションをビルドし、ラズパイにリモートインストール アプリケーションが無事動作 大変だったこと ラズパイ上で動く「Windows10 IoT Core」というOSが勝手な予想と全然違っていた。(勝手な思い込みですが) 2015年の春(5月頃)にWindows10 IoT Coreは公開されて、ネット上の記事はほとんどその当時のものしかない。リンク切れしてたり
前回の記事「Windows HolographicとHoloLens」で、Windows Holographicプラットフォームの概要を書きましたが、デスクトップのUWPなどのアプリケーションとHoloLensを連携させるための機能としてHolographic Remotingが重要な技術的な要素となります。 Holographic Remotingについては既に情報が公開されているので、動作を試してみるまでの手順をまとめました。 1.Holographic Remotingとは Holographic Remotingとは、PCのデスクトップ用アプリや XboxOneなどのUWPデバイス向けのアプリケーションを、HololensなどWindows holographic対応デバイス向けのコンテンツのホストアプリケーションとして利用できる機能の事です。 主な機能としては、ホスト側アプリケー
現在発売されているHoloLensは、Microsoftの「Windows Holographic」という構想、プラットフォームにおける、最初の1製品という位置づけです。 2015年1月に初めてHoloLensが発表された際にも 本日発表されたデバイスのHoloLens は、このWindows Holographic をデモするために用意されたプロトタイプの位置付けです。 マイクロソフト ホロレンズはプロトタイプ段階ながら、単体でホログラフィック・コンピューティングの機能が利用可能。 スマートフォンやPCに接続する必要も、ジェスチャや外界認識のための外部マーカーや入力機器も不要とされています。 と説明されています。 その後、2016年6月に、Windows Holographicプラットフォームに関して、より具体的な内容が発表されました。 「Microsoft HoloLens」を支える「
HoloLensには、Mixed Reality Capture(MRC)というライブキャプチャ機能があり、数秒遅延はあるものの、装着している人が見ている映像を他の人が同時に見ることができます。(録画することもできます) 技術仕様はここにいろいろ載っています。 Mixed reality capture for developers 簡単な概要としては HoloLens側でMRCをONにする(設定メニューからゴニョゴニョ) WindowsPCでホロレンズのDevicePortal (http://{HoloLensのIPアドレス})にWEBブラウザでアクセスする Mixed Reality Caputureのメニューから、Live Caputureを選択する。 ただし、MRC利用中は、体験者の映像も含めてFPSが下がってしまうようです(60fps -> 30fps) Windows以外でも
1.私の環境について Blenderのバージョン:2.78a Unityのバージョン:Unity 5.5.0f1 (64-bit) ちなみにWindows10 2.Blenderの初期設定(必要な事前準備) Rigify Addonを有効にする UserPreferens > Addon -> Rigify -> on PythonScriptの自動実行を有効にする UserPreferens > Files -> Auto Run Pythons Scripts -> on (やらなくてもよいが)Blender で長さの単位を 1cm にするには, Properties > Scene > Units で Metric を選択して,スケールを 0.01 にする. 3.モデルを作成 ここは省略。 Blender自体、あまり使っていない人は、このチュートリアルがわかりやすいと思います。 日本
HoloLensのSharingServiceを使うと、複数台のHoloLensでセンサーデータなどの共有が簡単にでき、同じオブジェクトを表示したり、協業ができるようになります。 SharingService自体はUnityEditor上やHoloLensエミュレータ上でも動作します。 SharingServiceをAzure上で動かしたので、そのメモ。 Microsoftのクラウドコンピューティング Windows Azure入門 作者: 砂金信一郎,遠藤大樹,酒井達明,藤田昭人出版社/メーカー: アスキー・メディアワークス発売日: 2009/11/27メディア: 大型本購入: 2人 クリック: 125回この商品を含むブログ (6件) を見る SharingService.exeについて SharingServiceは、 Unity上でHololensアプリを開発するためのGitHubで
前回の座標系システムのドキュメントに続けて、MicrosoftのHolographicサイト上にあるShared holographic experiences(ホログラムを共有する) のドキュメントを自分の勉強のために翻訳しました。 元のドキュメントはこちらです。 https://developer.microsoft.com/en-us/windows/mixed-reality/shared_holographic_experiences 目次 ホログラムを共有体験 ホログラム共有体験とは何か? ホログラム共有体験のシナリオ設計 2.1. どうやって共有するのか? 2.2. 人数はどれくらい? 2.3. メンバーはどこにいる? 2.4. いつメンバーはホログラムを共有する? 2.5. 環境がどれくらい似ているか? 2.6. どんなデバイスを使っている? チェック項目をシナリオに適用し
MicrosoftのHolographicサイト上にあるHoloLensの座標系のドキュメントを自分の勉強のために翻訳したので一部公開します。利用にあたっての注意事項は文末に記載しています。 元のドキュメントはこちらです。 https://developer.microsoft.com/en-us/windows/mixed-reality/coordinate_systems 目次 座標系について 空間座標系について 静止座標系について 空間アンカー(Spatial anchors) 3.1. なぜ、シーンを通じて、一つだけの固定の座標系が使われないのか? 3.2. 空間アンカーにおける解決方法 3.3. 空間アンカーを用いた永続性 3.4. 空間アンカーの共有 3.5 最適解 従属座標系 頭部固定のコンテンツは非推奨 トラッキングエラーの回避 6.1.デバイスが十分なセンサーデータを取
いろいろ出てきてよくわからなくなったので、自分メモ 2017/6/4 PiZero Wについて追記。 2017/2/23 日本製PI3と、PiZeroの国内発売開始について追記。 2016/11/6 実質PI2よりPI3のが実売価格が下がって来たので、オススメをPI3に変更しました。 2016/7/1 Raspberry Pi Model A+が実質入手困難になったため、除外しました。 表1:クレカサイズのRaspberry PI(4種類)2018年05月 model Pi Model B+ Pi2 Model B Pi3 ModelB Pi3 ModelB + 発売 2014/7 2015/2 2016/3 2018/3 値段 $25 $35 $35 $35 メモリー 512MB 1GB 1GB 1GB CPU 700MHz 4コア900MHz 4コア 1.2GHz(64bit) 4コア
photo by IntelFreePress 前回の続きで、今回はKinect とか Intel Real Senseなど3D Depthセンサー周りの2016年の状況をまとめます。 3D Depthカメラの基本的な情報は以前、こちらに書いています。 WEBカメラで利用できる顔認識技術まとめ(2015年4月)-その3 - littlewing この1年の変化としては RealSenseの新製品R200/SR300が出た。 RealSense対応デバイスが多少増えた。 といったところですが、そんなに変化はなく、OculusとかVR関係が盛り上がって、3Dカメラ関係は、地味な1年だった印象。 Kinect V2に関してはあまり変化がなく、情報も多いので、 RealSense製品に関して、もう少し詳しく書きます。 Intel RealSenseの対応製品群 RealSenseカメラは大きく3つ
RICHO Theta Sで撮影した動画をopenFrameworksを利用して全天球再生できたのでメモ その後うまくいった方法は↓の(その2)の記事を見てください 映像を最終的にはOpenCVで加工利用したいため、oFでスケッチ リアルタイム映像ではなく、保存済み動画の再生 元動画(1920x960 mp4形式)はそのままbin/data/に突っ込んで利用。 FBOでリアルタイムに解像度を落として利用。 oF 0.8.4 + Xcode 7.1 + Mac Book Pro 現状、再生用動画の解像度とFPSの関係は 960x480 ...約10FPS 480x240 ...約25-30FPS 再生はできるのですが、まだ改善の余地はある気がしています。 元画像を小さくすればどうなるか? リアルタイム処理の軽減 処理対象を再生領域のみに iOS 未対応。※現状ビルドはできるのですが、なぜか映
はてなブログはPRO版にすれば、PC版ははてなのヘッダーやフッターが非表示にできるのですが、 スマートフォン版はなぜか、設定の操作ではヘッダー・フッターを消すことができません。 それを消すにはCSSで以下のように書きます。 「ブログ開設」やら、「週刊はてなブログ」などの、余計(?)なリンクも結構多くて邪魔です。 管理画面を開いて * デザイン > スマホアイコン > ヘッダ > タイトル下 に以下のHTMLを貼り付けます。 <style> /* ヘッダー表示有無 */ #globalheader-container { display:none; } /* フッター表示有無 */ #footer-menu { display:none; } /* 余白調整 */ #container { padding-top:0px; } /* プロフィールやはてな関連リンクを消す*/ .footer-
先日Appleに買収されたMetaio社のARサービスですが、 日本での販売代理とサービス普及をおこなっていたサイバネット社から、新しいARサービス 「cybARnet(サイバー・エーアール)」 が発表されました。 「cybARnet」は、ARコンテンツ作成を支援する統合的なサービスメニューです。開発者は無料でお試し頂ける他、有償サービスも月額や従量制の価格体系になっているため、初期投資が少なく、短期のキャンペーンやイベントに対してもコストの削減が可能です。 また、2015年12月で提供中止となるJunaio用ARコンテンツ資産も利用可能です。 気になるところですね スマートフォン向けARサービス cybARnet(サイバー・エーアール):AR/VRソフトウェア(拡張現実・バーチャルリアリティソフトウェア):サイバネット
いいね!やコメントも残せます。いざという時のために、このページをブックマークしておくと後で役立つかも FacebookにURL付き記事を投稿すると、ページの画像やタイトル、テキストを自動で取得してバナーのような形で表示してくれます。 この時利用される内容は該当ページにOGP(Open Graph Protocol)タグというのを記述することでコントロールできるのですが、 クライアントワークや複数人で運用しているサイトなどでOGPを書き忘れたまま、先にFacebookに投稿してしまうと、意図しない画像やテキストが表示されてしまう場合があります。 さらに、マズイことにFacebookはこのOGPの内容をキャッシュに保存して利用するので、急いで元ページのOGPの内容を修正しても、反映されません。 その場合も焦らず、以下の手順で修正することができます。 「いいね」の数やコメントがリセットされること
photo by Arbron Unityでの動画再生に関して調査・テストをしました。 iOSとPC版で挙動が異なるので注意が必要です。 動画のループ(繰り返し)再生に関しても調べています。 iOSでの動画再生について iOS/AndroidではMovie Textures (ムービーテクスチャ)が使えない Movie Texturesを使ったコードが入っているとiOSはビルドもできない。 [Build&Run]が止まってしまう。 代わりにHandheld.PlayFullScreenMovieが使える Handheld.PlayFullScreenMovieは動画を全画面再生する。(全画面しかできない) ただし、Handheld.PlayFullScreenMovieで動画再生中は、Unity本体側の動作が停止してしまう(update()も動かない) Movie終了直後に、再度再生すれば
photo by ianfogg42 なんと突然、Metaioがサービスを終了する気配。 metaio関連 既存サービス・ライセンスは2015年12月15日で終了 ヘルプデスク(WEBサイト)も2015年12月15日で終了 メールサポートは 2015年6月30日まで http://dev.metaio.com/index.html Downloads of your previous purchases will be available until December 15th, 2015, and active cloud subscriptions will be continued until expiration. Email support will continue until June 30th, 2015. Thank you. Junaio関連 新しいPublicチャンネ
LODクラウド検索のクエリ言語「SPARQL」を実際に実行してみます。 この記事はオープンデータ カテゴリーの記事一覧 - littlewingの第五回です。 SPARQLで何ができるのか? SPARQL言語を使うことで、LODクラウド上のデータを自由に取得・加工することができます。 LODクラウドデータベース用のSQL言語のようなものです。 各LODにはSPARQLエンドポイントが存在しており(無い場合もあります)、そこに対してSPARQLを実行することで実行結果を取得できます。 実行結果はXML,JSON,HTMLtableなど加工しやすいフォーマットで取得できます。 ひとまず、SPARQLのサンプルクエリを淡々と紹介 ja.dbpedia.orgのエンドポイントであるVirtuoso SPARQL Query Editorに以下のSPARQLを流し込むことで動作が確認できます。 任意
オープンデータ活用支援プラットフォーム「LinkData.org」を使ってオープンデータを実際に使って見ます。 このサイトを使うことで、オープンデータを見つける⇒データを使ったアプリを作る⇒アプリを公開するの一連の流れが実現できます。 この記事はオープンデータ カテゴリーの記事一覧 - littlewingの第4回です。 LinkData.orgについて LinkData.orgはデータの流通、及びアプリケーション開発からビジネスまで幅広くデータの活用を支援するプラットフォームです。 4つのサービスを統合し提供しています。 サービス名 説明 LinkData テーブルデータの変換と公開をサポートする App.LinkData アプリケーションの作成と公開をサポートする Knowledge Connector ナレッジの公開とマッチングをサポートする CityData 地域のリソース情報の共
5月4日は「スター・ウォーズの日」 前からちょっとづつ進めていたのですが、もうすぐ5月4日は「スター・ウォーズの日」なので、そこにあわせて形にしようかと。 コンピューターをディスプレイとキーボードから開放する。 そんな取り組みをいろいろ考えているのですが、ひとつの形として スター・ウォーズ好きでもあるので、リアルタイムで処理できるライトセーバーを現在作っています。 ちなみに、「何故5月4日がスター・ウォーズの日なのか?」は名台詞 May the force be with you.(フォースと共にあらんことを) とMay 4thをかけた、良質なアメリカンジョークです。 まだ未完成ですが、開発メモを自分用含めてまとめます。 どんなものか? 棒がマーカーとなって、それを持ってカメラの前で振ると、ライトセーバーになる。 その棒で、いろいろ壊せたり、エフェクト処理(画面内で) ライトセーバーは発光
この記事は以下の続きです。 最初から読む→ WEBカメラで利用できる顔認識技術まとめ(2015年4月) - littlewing 4回目の今回は、オープンソースではないですが、海外のものを中心にface-tracking可能なミドルウェアを紹介します。 6.顔認識可能なミドルウェア 6.1 Facerig -Skypeと連携可能 FaceRig Face RigはルーマニアのHolotech Studiosが開発するFace-Trackingソフトウェア。steamで配信されています。 表情豊かな複数のアバターが容易されていて、skypeに利用したり動画として保存することができます。 www.youtube.com 日本語の解説記事 当初のプレスリリース Holotech Studios Launches Expression Mo-Cap Software Called FaceRig
この記事は上記の続きです。 ここからはDepth(深度)センサーを搭載した3Dカメラ(RGBDカメラ)製品の紹介です。 WEBカメラからずれてきてますが、気にせず続けます。 4.Microsoft Kinect (Kinect) 4.1 Kinect(キネクト)とは? Microsoft社のゲーム専用機Xboxのオプションとして2010年に登場したKinect(キネクト)はジェスチャー・音声認識によって操作ができるデバイスで「NUI」(ナチュラルユーザーインターフェイス)の一つとなります。 RGBカメラ、深度センサー、マルチアレイマイクロフォン、および専用ソフトウェアを動作させるプロセッサを内蔵したセンサーがあり、プレイヤーの位置、動き、声、顔を認識することができ、プレイヤーは自分自身の体を使って、直観的にビデオゲームをプレイすることができます。 単純なWEBカメラとは異なり、プロセッサー
その2 littlewing.hatenablog.com この記事は上記の続きです。 さっそく顔認識ライブラリの紹介 前記事では、概要説明だけで終わってしまったので、さっそくまとめます。 1.FaceTracker FaceTrackerはJason M. SaragihさんがC++/OpenCV 2で開発した顔認識ライブラリで 現在はKyle McDonaldさんがメンテナンスを行っています。 Jason M. Saragih http://jsaragih.org/ Kyle McDonald Kyle McDonald オープンソースで多くの言語に移植されていて、研究・開発などで無償で利用できるため人気のライブラリです。 Takuya Minagawaさんが、Jasonの論文の概要を日本語でまとめてくれています。 201205016 deformablemodelfitting f
大人気で期間延長の『チームラボ 踊る!アート展と、学ぶ!未来の遊園地』に4月上旬に行ってきました。 kids.team-lab.com 技術的には同じようなものを開発しており、イメージはつくのですが、 あれほど大規模に実施した場合、どうしているのか?機材の数は?などエンジニア目線でどのような技術で実現されているのか、 とても気になったのでその内容を紹介したいと思います。 純粋に内容を楽しみたい方には不要な情報が多いので、エンジニアの方以外は見ないほうが良いかと思います。 感動が減ってしまうと思います。 特に彼女や家族といって、ウンチクを語るのは絶対にやめましょう。 (正式にインタビューしたり取材したわけでもないので、勘違いもたぶんあるかと) 入り口 平日で空いていると思っていたのですが、会場は春休みということもあって子供たちでいっぱい。 ただ、入り口は行列で待つこともなくサクッと入ることが
はじめに ヒューマンインタラクションの一つの大きな手法であるカメラ画像を基にした顔認識。 ゲームやデジタルサイネージの操作方法としての商業利用のみならず、手足を自由に動かせない状況や障害を持つ方のコンピューター操作支援、感情や年齢推定を活用した分析、ロボットへの応用など活用分野は広いのですが、特に最近PCやモバイル端末の処理速度の向上により、身近なところで目にする機会が増えてきました。 WEBカメラが手元にあれば簡単に始められる開発ライブラリが各種公開されているのですが、まとまった情報が少ないので現時点でまとめてみました。 Face-detection(顔検出)とFace-tracking(顔追跡) 尚このブログでは顔の位置の特定まで行うものをface-detection 顔の中の目や口などのパーツの位置まで特定して、まばたき認識や表情検知まで活用できるものをface trackingとし
このページを最初にブックマークしてみませんか?
『littlewing.hatenablog.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く