![【速報】Microsoft、新3Dカメラ「Azure Kinect」を発表。単体でも複数接続でも動作](https://cdn-ak-scissors.b.st-hatena.com/image/square/852e5b8ba166c79245f41e6e24a14c998e727968/height=288;version=1;width=512/https%3A%2F%2Fpc.watch.impress.co.jp%2Fimg%2Fpcw%2Flist%2F1171%2F340%2F01.png)
Build 2018開幕、エッジAIで進化した新Kinect「Project Kinect for Azure」発表 マイクロソフトの年次開発者イベント「Build 2018」が、日本時間2018年5月8日0時、シアトルで開幕した。イベント開始に合わせて、Microsoft Azureから新サービスが多数発表された。特に、IoTデバイスにクラウドAIの機能を実装する「インテリジェントエッジ」関連で、大きな進捗があった。 Azure IoT Edgeのランタイムをオープンソース化 マイクロソフトは、昨年のBuild 2017で「インテリジェントクラウド、インテリジェントエッジ」構想を発表し、IoTデバイスの存在するエッジ側でAIや機械学習の処理を行う「インテリジェントエッジ」を実現するためのサービスとして「Azure IoT Edge」を発表していた。Azure IoT Edgeは、IoTデ
今回と次回の2回で、Unity ProからKinect v2を使って、ディスプレイ上のキャラクター(Unityちゃん)を同期させる処理を解説します。今回は「Unityとは何か?」そして「何ができるのか」を解説し、あわせて開発環境の構築までを解説します。実際にキャラクターを同期させる処理は、次回に解説します。 Unityとは? 何ができるのか? Unityとは統合開発エンジンで、ゲームを作ったり、3Dコンテンツを作ったりできる機能を提供してくれます(図1)。マルチプラットフォームに対応しており、作成したゲームや3Dコンテンツは、PC、Android、iPhone、PS(PlayStation)などに配信できるようになります。 Unityで使用可能な言語はC#、JavaScript、Booです。今回はノンコーディングでキャラクターを操作しますので、C#やJavaScriptやBooの知識は不要
次のキネクトの凄さがまだイマイチぴんとこない。もしそんな方がいても、このニュースで考えが変わるかもしれません。今度のキネクトは、なんと二人の人間が同時に喋っている内容を聞き分けて音声認識できるようになるんだそうですよ。 Polygonの報道によると、マイクロソフトのフィル・ハリソン(Phil Harrison)は、ロンドンで行われたEurogamer Expoの講演でこの件を発表。Xbox Oneでは、たとえ暗闇の中でも口の動きが分かるようになり、二人の異なるプレイヤーが同時に話したことをまとめて処理できるようになります。 ほかにも、6人のプレイヤーに含まれる25個の関節が検知できたり、実際にコントローラーを操作している人を見分けたり、1,400個に上るポイントを顔にマッピングしたりできますが、どれもすごい機能ですよね。キネクトのセンサーは著しく改良されるので、どんな使い方ができるか楽しみ
3Dモデルを作りたくなったことはありませんか? 筆者は最近、3Dモデルを作りたくなるシーンが増えてきたと感じています。 例えばPCやスマートデバイス向けのゲームを作る場合、UnityやOpenGL ESを用いれば簡単に3Dゲームを作ることができます。モダンブラウザで実装されているWebGLを利用すれば、Webブラウザ上で動作する3Dゲームを作ることも可能でしょう。ほかにも、KDDIが提供するSATCHやmetaioが提供するJunaioなど、AR(Augmented Reality拡張現実)プラットフォームサービスも一般的になり、3Dモデルを利用するアプリが簡単に作れるようになってきました。 TISでも、JunaioのARエンジンを単独利用して3DモデルをiPad上にAR表示する検証をしています。詳細は下記のページを参照してください。 3Dスキャンした物体をmetaio SDKでiPad上
なんということのない話なのですが、ひさしぶりに見た高専ロボコンがマイクロソフトがゲーム機であるXBOX 360向けに発売しているKinect活用大会みたいになっていました。 Kinect - Wikipedia 仕様 RGBカメラ、深度センサー、マルチアレイマイクロフォン、および専用ソフトウェアを動作させるプロセッサを内蔵したセンサーがあり、プレイヤーの位置、動き、声、顔を認識することができる。これにより、プレイヤーは自分自身の体を使って、直観的にビデオゲームをプレイすることができる。 常にプレイヤーの位置、身長を測定し、最適なプレイができるよう上下の角度の自動調整が行われる。 Kinect対Kinectみたいな対戦も頻繁にあって、状況を把握するためにKinectを利用しないことが圧倒的な不利になっている状況です。そういえば、昔こんな状況をどこかでみたなーと思ったのが、水泳でレーザーレーサ
表情の変化をゲームシステムに組み込んだ『L.A. Noire』など、より表現力の高い映像を実現するモーションキャプチャ技術ですが、Kinectなどのモーションデバイスを利用して顔の表情をキャプチャ出来る開発キット“FaceShift”のリリースが開始されました。 Faceshiftはマーカー類を顔に取り付ける事無く、表情の変化をリアルタイムに3Dモデルへ演算が可能で、アニメーション作品の開発現場や、オンラインゲームなどのアバターへの採用が期待されています。数ヶ月前からASUS Xtion live Proなどのモーションデバイス向けにベータ版がリリースされていましたが、今月の15日よりKinectに対応したプロ/個人向けの2種類の製品版が提供開始となった模様です。 尚、同様の技術はSony Online Entertainmentの多人数オンラインゲーム『EverQuest 2』で実現して
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く