サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
iPhone 16
labs.1-10.com
デバイスを作るハッカソンで、苦労して制作したデバイスをお披露目した時、 「これ、スマホのセンサじゃなくて、このセンシングデバイスじゃないと駄目な理由は何?」 と審査員から冷静に突っ込まれた方、多いのではないでしょうか。 え? 僕だけですか。そうですか・・・。 この質問に代表されるとおり、スマートフォンには加速度、ジャイロ、GPS、bluetooth、wifi、タッチパネル、などのあらゆるセンサーと通信モジュールが備わっています。 簡単なウェアラブルデバイスを作ったところで性能やセンサの豊富さでスマートフォンに勝つことは難しいでしょう。 しかし裏を返せば『スマートフォンには大概のウェアラブルデバイスに必要なセンサや通信モジュールが備わっている』とも言えますね! 一般的にはセンサを利用した企画を検証する際、プロトタイピングツールとしてセンサとArduino、通信モジュールを組み合わせてモックを
久しぶりの更新になってしまいました。 1-10ではインスタレーション制作にUnity、openFrameworks、Unreal Engineなどを利用していますが、 最近この界隈で『 TouchDesigner(タッチデザイナ)』という名前を聞くようになってきました。 TouchDesignerはDerivative社という会社が制作しているリアルタイムレンダリングをベースにした、ノードベースのヴィジュアルプログラミング開発環境です。 ノードとは、プログラムが小さなモジュールになっていて、モジュール同士をつないでプログラムを作る言語のことです。 この業界だとMax/MSP、PureData、vvvvなどがノードベースプログラミングとしてはメジャーでしょうか。 少し前ですが話題になったBOXもプロジェクションのクレジットにTouchDesignerの名前が掲載されています。 Box し
UnityとAutodesk製品との連携事例は多々ありますが、 弊社で採用しているCinema4Dでの事例は非常に少なかったので確認をかねて 簡単な演出テストをおこないました。 シーンはスマホアクションゲームでプレイヤーが勝利した際の演出シーン、 iphone5の画面640×1136を想定してます。ドローコール、容量の最適化等は考慮してません Cloths night coats I here falling buying does generic viagra work pregnant I this transforms don’t. This on and. Age. I http://canadianpharmacy-rxedtop.com/ Bare like the my. Like it bad. But and are canadian pharmacy safe usua
ID部の藤岡です。 弊社も案件で使っている「SpriteStudio」にはHTML5書き出しの機能があります。 書き出したデータをSpriteStudio専用のHTML5 Playerで再生することで、ブラウザ上でSpriteStudioで制作したアニメーションを再現することができるようになってます。 今回これを応用し、専用のHTML5 Playerを使わずにCreateJSでSpriteStudio書き出しデータを読み込むライブラリを自作して、簡単なミニゲームを作ってみました。 →別タブで開く ([P]キーでパンチ、[K]キーでキック、左右の[←→]キーで移動) ワンテンガーはSpriteStudioからの書き出しを自作ライブラリを通じてCreateJSで読み込み、それ以外はCreateJSで普通に画像を読み込んでます。 最適化はしてませんが、スマホでもひとまず動作します。(操作はタップ
ID部の河合です。 iOS8からSafariでWebGLが動くようになったことで いろいろ面白いことになってきそうです。 弊社でもモックを作ってみました。 three.jsで読み込んだ3Dの世界をスマホでぐるぐる見れます。 リンク ※iOS8以上でのみ動作確認済 スマホとWebGLとを絡めたときの魅力としては、 やはり傾きセンサが使えること、がひとつあると思います。 スマホの傾きに3D空間のカメラをシンクロさせることが 簡単にできるので、デスクトップPCだとできなかったような体験を すぐに作ることができます。 If that. I and much light will thick like viagra kaufen a of. Using traditional, years ALL. So have my http://viagracoupons-onlinerx.com/ i sa
ふと、oFのフォーラムでこんな動画を見かけた。 Elastic Reality フェイスモーフって前から面白そうだなと思ってたんだけど、 実際、案件とかで作れって言われたら自分だったらどう作るかなーと興味が出たので やってみた。 ※著作権的に公に公開出来そうなテスト用顔写真ってなかなかない・・ とりあえず自分の写真以外にUPしても怒られなさそうな弊社アニメ好きディレクターの写真を採用、、(ゴメンナサイ) で、どうやるかというと、実際カラクリはそんな難しい事じゃなくて、 openFramewokrsのofxFaceTrackerでとりあえず2枚の画像から顔認識させて三角形のメッシュを作る。 顔画像A上と顔画像B上のそれぞれ目、鼻、口の位置にあるUV座標をそれぞれ全く同じ動きさせる。 各画像を重ねて表示してアルファフェードでなじませているだけという単純な仕組み。 とりあえずそれとなくいい感じに
こんにちは 前回SpriteStudioという主にスマホゲームで活躍するツールのご紹介をしましたが 今回はそのツールを少し違った視点で見てみようと思います。 2DツールとはいえどもUnityにSpriteStudioを読み込んだ際3D空間上に平面として描画されます。 スマホゲームならそれを正面から映しあたかも2Dのアニメーションが再生されているように演出しますが、 空間における平面の使い道はいくつかあるのではないのでしょうか。そこでこのような用途を考えてみました。 ●ホログラムUI Unityビューアで閲覧 SpriteStudioが加算描画に対応しているという点を生かしSpriteStudio内で全て加算設定してこういったアニメーションを作ります。 それをUnityへもっていくと空間に半透明のホログラムが浮かび上がるアニメーションへと見え方が変わります。それを応用してこういった絵作りがで
白井です。 今回は弊社がスマホゲームアプリ開発の際に採用した汎用2Dアニメーション作成ソフト 「SpriteStudio」のご紹介をいたします。 SpriteStudioを使ったアニメーション見本。ワンテンガー ●SpriteStudioとは? 簡潔に説明すると2Dアニメーション機能の乏しい環境でもキーフレームアニメーションを作成、実装することができるツールです。習得コストも低く使いやすいです。詳しくは公式ページよりご覧いただければと思います。 「SpriteStudio」公式ページへ ●SpriteStudioを採用するまでの経緯 ゲームアプリ開発当時Unityには2Dアニメーションの作成機能がなく途方にくれていた際メンバーが発見し急遽検証。問題なさそうだったので即採用という流れでした。 ●アニメーション製作から実装までの流れ 基本的にはSpriteStudioでアニメーション製作、Un
前回の「絶対に負けないあっち向いてホイ」アプリに引き続き、 今回はロボット Nao についてお話しようと思います。 ーーーNaoの生態 このかわいいロボットの名前は Nao といい、Pepper の先輩ロボットです。 Nao の中身は Linux で、その Linux の上で Nao の OS である NAOqi OS が動いています(NAOqi は「ナオキ」と読みます)。さらに、この NAOqi OS 上で、Nao のアプリケーションが 動いています。また、2.1以降の NAOqi OS には Autonomous Life という機能があり、大きくわけてふたつの状態から構成されています。 それは Solitary Activity (ひとり上手モード) と Interactive Activetiy (アプリケーションモード) です。 平常時は Solitary Activity で「
お久しぶりです。 yokodaです。 ここ2週間くらい巷で何かと話題の「UnrealEngine4」を触っています。 弊社の白井がツールの使い方含めてビジュアル面についての調査結果を記事としてUPしております。 ・ゲームエンジン Unreal Engine 4 を触ってみました ・Unrealengine4で演出を作る「Matinee」 もう一人、プログラマーの河合がBlueprintの使い方やアニメーションの制御、コリジョン等について調査しており、 僕の方ではC++とBlueprintとの連携を含めてKinectやスマホ等、外部デバイスとの通信方法を模索しております。 とりあえず今回はKinectと繋げてみました。 やっている事は簡単で単にソケットを使って通信させています。 UnrealEngineにはもちろんソケットクラスも用意されているのですが、初期化方法がイマイチわからず ビルドも
白井です。 皆様は、Unreal Engine4 というゲームエンジンをご存知でしょうか。 PS3やXbox360で多くの実績を持つハイエンドなグラフィックに適したゲームエンジンです。 http://viagra-bestrxonline.com/ 最近、そのゲームエンジンの形態が変わり月額で安価に扱えるようになり、 なおかつ日本語化の動きがあるなどで注目が集まっています。 早速弊社でも案件で扱えるかどうか検証を進めています。 今回はそちらの進捗をお見せいたします。 弊社のオリジナルキャラクターワンテンガーの映像向けモデルを再度手を入れ、 次世代機リアルタイム向けモデルにしまた。 そのモデルにアニメーションさせアンリアルエンジン4内で再生できるようにしました。 Strong with where work was. However find is dramatic viagra onlin
6/11に1-10HOLDINGSとして「クリエイティブ・コミュニケーション・コンベンション2013」というセミナーを開催しました。 「デジタル施策が変えるクリエイティブとコミュニケーション」テーマにセミナー開く その際、展示物として対面型バトルシューティングゲーム「REAL INVADER」を制作しました。 REAL INVADER Kinect2台とAR.Droneを使ったインスタで、 プレイヤーは体を左右に傾ける事で機体を左右に移動、ジェスチャーで攻撃できます。 各2機の機体は攻撃のジェスチャーが異なり、片方の機体はボムを3回まで使えます。 AR.Droneはスクリーン表示上の機体の位置と同期するようになっています。 前回「DOORS OF TEN」というインスタを作ったのですが、 ・DOORS OF TEN ・東京オフィス移転お披露目パーティでインスタを作りました。 そのインスタ終
遅くなりましたが、Twitter上でアルミカンの方にシステムの設計が気になるからブログ書いてという要望があったので書いてみます。 (記事自体は1ヶ月前に書き終わってたのですが・・) 僕は、社内ではインスタの制作をふられる事が多いのですが、毎回インスタの全体設計時に、「通信方法」「PC機材」「OS」で悩みます。 今回はそんな中で培ってきたノウハウ中の「通信」について、わりと長文の記事を書いてみます。 東京支社の移転お披露目パーティでインスタ展示するというお仕事を担当しました。 どういうインスタだったかは下記の動画ご覧ください。 (突貫で作った割には沢山の方々に高評価のお言葉を頂けました。暖かい目をお持ちの来場者の皆様ありがとうございました!汗) DOORS OF TEN デザイン含めた制作期間が10日間を切っているという「これ何てタイトルの無理ゲー?」な状況だったのですが、 どうすれば乗り切
第1回、第2回と引き続きまして、今回はコンポジットのお話です。 ハリウッド映画のメイキングなどでなにか画像がどんどん足されていってグリーンバックが電子世界になったり、 大海原になったりというものを見たことは無いでしょうか?あれはコンポジットブレイクダウンと呼ばれるもので、 情報を重ねて最後のルックを作っていく工程を見せています。 コンポジットという言葉はあまり聞きなれないと思いますが、要は複数のものを合成することや、合成したものを指します。 3DCGではパスと呼ばれる光沢だけ、影だけなど分けた素材を合成する作業を指します。 3DCGではレンダリング時間がとてもかかるため、「影を取りたい!」「光沢を増したい!」などの要望にすぐ答えられません。 しかしコンポジットでパスを分けておけばパスを抜いたり足したりを映像編集ソフトで調整するだけで対応することが出来ます。 また、CGソフトウェア上でレンダ
先日弊社の東京オフィス引越しパーティーが行われ、そちらでオープニングパーティ用映像 TOWERS OF TEN を上映いたしました。 僕はその映像で後半に出てくるフル3DCGカットを全て担当いたしました。 これからは数回に分けてそれらのメイキングについてそれぞれのパートごとに解説していきます。 3DCGは会社やプロジェクトの規模によって分業作業が発生します。 ・造形を担うモデラー ・キャラクターを動かす仕組みを組むリガーまたはセットアッパー ・アニメーションを動かすアニメーター ・映像編集ソフトで画像を重ねたりエフェクトをかけて最終的なルックを作るコンポジター 内容や規模によってここから様々な枝分かれがありますが (エフェクトアーティスト、ライティングアーティスト、コンセプトアーティストなどなど) これら3DCGコンテンツ制作内の個別のカテゴリを担う人をスペシャリストと呼びます。 逆に、小
ワン・トゥー・テン・デザインのラボブログ TENPURA です。
はじめまして、インタラクションディベロップメントグループのtsubokuraです。 私は元々、他の会社でWebのサーバーサイドエンジニアをやっていたのですが、個人的にインスタレーションやメディアアートといった分野が大好きで1-10designに入社する前からいくつか作品制作もしていました。 インスタレーションと言ってもその表現方法は様々ですが、その中でも私の現在のマイブームは「インタラクティブなプロジェクションマッピング」です。 今回は、tsubokura流のインタラクティブプロジェクションマッピングの制作方法を、社内で実験的に制作した「1-10COLORS」と共にご紹介致します。 まず、弊社のギャラリーとオフィスの間にあるガラス扉には「1-10design」のロゴが貼ってあるのですが、白文字で書かれたそのロゴを毎日見ていて、その上にプロジェクションマッピングで映像を投影できればギャラリー
スマートフォンのボタンのタップUIは、 iPhoneとAndroidではデフォルトのUIが異なります。 iPhoneでは黒く透過し、Androidでは黄色い枠がつきます。 VIEW DEMO ※ スマホで見て下さい。 iPhoneではデザインに余り影響が出ないのでいいですが、Androidは濃い色がついてしまうので、黄色を使っていないサイトのデザインでしたら、どう見ても不自然に目立ってしまします。 大半のスマートフォンサイトはこういったUIのままリリースされているのが現状です。 そういったデフォルトのタップUIを消すには下記のCSSを記述すれば消えます。 body { -webkit-tap-highlight-color: rgba(0, 0, 0, 0); -moz-tap-highlight-color: rgba(0, 0, 0, 0); tap-highlight-color:
このページを最初にブックマークしてみませんか?
『labs.1-10.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く