Anker's 3-in-1 MagSafe foldable charging station drops back down to its Prime Day price
2011.8.1313:23 こうやって最新ゲーム機一式を寄付してもらったよ カテゴリ震災BUSINESS 7月以降からスマイル☆キッズオンパクや豊間のセブンイレブンのイベントで使ってた「Xbox360+キネクト」ですが、これは日本マイクロソフト株式会社(以下、マイクロソフト)から提供を受けたものなのです。 「被災地の個人や小さなボランティア団体になんで?」と思われたり、「できればウチの地域でも欲しい!」という方もいるかもしれないので、どうやって寄付していただいたかをご説明します(´∀`) 知人でも甘えは禁物 結論から言うと、 ゲーム機提供の相談をしたXNEWSさんも、マイクロソフトXBOX事業部の巽さんも、以前からイベント取材などで面識のある方なので話が早かった。 (;´Д`)… …これで即答OK! というほど世の中甘くなく、幾つかのポイントを踏まえて行動してました。 1,マイクロソフト
Tython とはhttps://github.com/gongo/Tython/tree/development 肉体言語 Tython は、Kinect センサーを用いて、体の動きを利用してプログラムを入力する言語、というかインターフェースというかフレームワークというか。 図にするとこんな感じです。 Kinect を介して動きを検知 (Detector) 検知した動きによって、入力するソースコードを決定 (InputMethod) ソースコードを入力し終わったら、コンパイル (Compile) コンパイルしてできた命令列を実行 (VM) デモ 「Hello, World!」Tython を使って Hello, World! を出力してみました。 Hello, World! 出力まで 4分強 一回で成功しなかった 最終的に成功するまでの時間は 90分 一度でも文字入力失敗すると最初から
新しいゲームシステムには新しいローカライズの手法が必要になる。Kinectタイトルのローカライズ事例をレクチャーする講演が、開催初日に行われた。 ●新しいゲームシステムには、新しいローカライズの方法論が必要 2011年2月28日~3月4日、アメリカ、サンフランシスコのモスコーニセンターにて、GDC(ゲーム・デベロッパーズ・カンファレンス)2011が開催。世界中のゲームクリエイターによる世界最大規模の技術交流カンファレンスの模様を、ファミ通.comでは総力リポートでお届けする。 開催初日の2011年2月28日に、“ローカライゼーションサミット”の一環として行われたのが、“New Technology and New Interfaces:Localizing Video Games for Kinect(新しいテクノロジーとインターフェース:Kinect向けのローカライズ)”だ。昨年発売され
はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28
Kinectは2010年にマイクロソフトから販売されたXbox360向けのゲームデバイス。コントローラを用いずに操作ができる体感型のゲームシステムで、ジェスチャーや音声認識によって直観的で自然なプレイが可能となる(Wikipediaより)。簡単に言えばテレビの前に立って身振り手振りで遊べるゲーム機って感じ。同時購入したKinect対応ソフトは『Dance Evolution』 ゲーセンにあった『Dance Dance Revolution』が足元にある上下左右4つのパネルを踏んで操作していたのに対し『Dance Evolution』は全身が入力装置。キャラクターが披露するダンスを自分の体で正確に再現するほど高得点という仕組み。テレビの前で実際に踊るダンスゲームだ。 ということで早速プレイしたんだけど面白いわー。センサーが優秀なのか「いやちゃんと踊ったって!」みたいな理不尽な判定があんまない
このサイトについて DERiVEはコンピュータビジョン、画像認識が専門のMasaki Hayashiがお送りしている、コンピュータビジョン(Computer Vision)を中心としたITエンジニア、研究向けのブログです。※「DERiVE メルマガ別館」は2015/9月で廃刊致しました、 twitterでもつぶやいたのですが、Avatar Kinectの表情トラッキングの原理の動画を見るに、表情の変化のトラッキングに用いているのが、AAM(Active Appearance Models)を使っているのかなと憶測しています。以下がその動画で、AAMではないかなと思っている顔のモデルが右側の黄色のメッシュです。 AAMとは簡単に説明すると、 1.顔の特徴点の形状(Shape)変化 2.顔の各領域のテクスチャーベクトル(Appearance)の変化 の2つを1つのモデルにして、これらの変化を同
CESのMicrosoftキーノートで発表された、Kinectを使ったXbox LIVEの新たなコミュニケーションサービスAvatar Kinect。その興味深い技術を解説する最新映像が見つかりました。Avatar Kinectでは、Kinectのモーションセンサーが実際のユーザーの動きを読み取り、画面上のアバターの動きに取り込むことが可能。映像では、人物の手や頭の動きに加え、眉、目、口といった微妙な顔の表情までリアルにキャプチャーしていることが分かります。今後この技術が別のサービスやゲームでも利用されれば新たな可能性が生まれてくるかもしれませんね。 Avatar Kinectは2011年春にゴールドメンバー向けに無料で提供予定です。(via Kotaku) 【関連記事】 CES 11: 表情まで再現するバーチャルチャットルーム『Avatar Kinect』が発表 Microsoft、CE
(English version is available at http://www.youtube.com/watch?v=RUG-Uvq-J-w) 知力・体力・CPUパワーの無駄遣いを極めるべく、Kinectのモーションキャプチャを活用したウルトラセブンを体験できるプログラムを作りました。PCの中でウルトラセブンのようなものに変身してなんかいろいろできます。アルゴリズム行進に続き、たぶん世界初でしょう。開発期間は一週間、初めてのOpenGLプログラミングがKinect自体を扱うよりも大変でした。最新の進化した版の動画が http://www.youtube.com/watch?v=kxvn98lqr5Y にあるのでそちらもどうぞ。コードは http://code.google.com/p/kinect-ultra/ に公開してあります。
西川善司の3Dゲームファンのための次世代ゲームテクノロジー講座 3D立体視元年を迎え“3Dゲーム”の今後の行方はどうなるのか? Tweet Check 2009年はPS3やXbox 360などが、ユーザーにとって名実共に「現行機」として浸透が進み、開発側にとっては「本当の実力」への理解が進み、ハードウェアのポテンシャルを使い切ったタイトルを送り出せるようになってきた。まさに、PS3、Xbox 360は「成熟期」を迎えた年になった。 2010年は、さらに成熟が進み、全体的な表現レベルは各段に底上げされた一方で、ユーザーの目も肥え始め、ゲームグラフィックスの善し悪しだけでは、ゲームの評価は上がらなくなってきた。これは「ユーザーの目は厳しさを増した」と言い換えてもいいだろう。 だから、というわけでもないだろうが、今年SCEとマイクロソフトは、共に映像体験以外の新しいゲーム要素として、モーション
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く