サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
大谷翔平
prince9.hatenablog.com
VR上でのライブ演出の作業が必要となり、PCキーボードやマウス制御では事故ると思ってMIDI機器を引っぱり出しました。 いろいろ大変だったので、Keijiro Takahashiさんが作成された「MidiJack」をお借りして制御します。 今回はKORGの「nanoPAD1(初代)」を使いました。「nanoPAD2」や10月下旬に販売される新しいnanoPAD2でもいけると思います。 プロジェクトファイルはこちらです。 www.dropbox.com ※照明のところで、MIDIナンバーのコメントが一部違っています。このサイトに掲載しているスクリプトは修正済みです。スクリプトの実行に影響はないですが、すみません ※2 三項演算子と「Input.GetKeyDown」「Input.GetKeyUp」の相性が極めて悪いようです。 これらを使う場合は、素直に公式の下記を使います。 docs.uni
最近流行りのボイスチェンジですが、意外と設定がややこしかったのでメモ代わりです。 VRChatとcluster(バーチャルルーム)で使用する想定です。 これらだけでなく、アプリ自体にサウンドの入出力設定の項目がない=デフォルトのサウンド設定を使うアプリも同様の設定でいけると思われます。 (VRChatやclusterなど、Unityベースのアプリ) 「VoiceMeeter Banana」のアプリは使用しません。 仮想サウンドミキサーの設定をする 1.下記から「VoiceMeeter Banana」をダウンロード&インストールする www.vb-audio.com 2.Windowsのサウンド設定の項目を開き、下記のように「再生」のタブに「Voice Meeter Aux Input」「VoiceMeeter Input」があるか確認する 3.今度は「録音」のタブに「Voice Meete
Unityでアニメ調の見た目にしてくれる「Unityちゃんトゥーンシェーダ」。Unityに慣れてるヤツしか触るな!的で、モデリング始めたばかりの方にはややとっつきにくい印象があります。 なので、Unityに触ったことがないという方でも分かるようにできるだけ細かく書いてみました(たぶん私が忘れるので・・・)。 とりあえず、超簡単に使うための方法です。詳細な設定は、Unityちゃんトゥーンシェーダをダウンロードするとついてくるご本家のマニュアルを参照ください。 とにかく時短、ということで、Unityちゃんトゥーンシェーダを使うにあたり以下の制約条件のもと設定しています。 ・表情モーフなし、スカートなどの揺れボーンなし ・Mixamoで自動でボーン&スキニング設定をする ・目以外のテクスチャはなし、3Dアプリで設定するマテリアルは色のみ 表情モーフありの設定バージョンは後日に。 記事執筆にあたり
お題の通り、iPhoneのカメラ画像の上にラベルをオーバーレイしたときのメモです。 Viewをひとつ追加してカメラ画像を表示させる部分を書く。最後に.cameraOverlayViewを追加するだけ。 具体的な手順は以下のようになります。 IBを使用すること前提で書いています。 1.サブクラスを追加する なんちゃらViewController.hとm(ここではARTestViewControllerとします)が入っているフォルダを右クリックして「New File」を選ぶ→Objective-C classを選んでサブクラスをUIViewにして名前をつけて追加する ここでは名前をARUeViewにしました。 2.ARTestViewController.xibをクリック、Viewを追加する(Show the Object libraryをクリック、Objects→Viewを元からあるView
Twitter第3段。キーワードを入力してその言葉でTwitter検索をかけて1件ずつ該当ツイートを表示、さらに表示されているツイートをふぁぼります。 ※ツイートを50件取得できるようにしました。限界は100件だそうです。 「"http://search.twitter.com/search.json?q=%@"」の末尾に「rpp=50」とつけると一度に取得するツイートの数を設定できます。 また、複数条件で検索した結果を表示する場合は NSString *searchString1 = @"ポケモン"; NSString *searchString2 = @" ブラック"; NSString *searchString = [searchString1 stringByAppendingString:searchString2];というようになります。2つ目の頭、もしくは1つ目のおしりに半
iOS6からTwitter.frameworkが使えなくなりました(動くけど警告が出る)。 Social.frameworkとやらを使えということらしいです。 タイムラインの読み込みに関してはこちらが詳しいです。 テキストだけ取り出したい場合は、 ・.h #import <UIKit/UIKit.h> #import <Social/Social.h> #import <Accounts/Accounts.h> @interface ViewController : UIViewController { NSString *Twstr; NSMutableArray *tweetTextArray; } @end ・.m if(timeline){ for (NSDictionary *tweet in timeline) { [tweetTextArray addObject:[twee
TextFieldにテキストを入力するとき、キーボードが下からせりあがってきて画面が隠れてしまうことがあります。 かといってTextFieldを画面上部に持っていくとなるとレイアウトが崩れる・・・というときにはscrollViewを使います。 テキストを入力したときに自動的に画面が上にスクロールされて、入力が終わると元に戻ります。 サンプルを2つ用意しました。 これは通常のViewでやったものです。GitHub - prince9/scrollViewSample: (Sorry,Japanese only)TextFieldにテキストを入力したとき、画面の下が隠れてしまわないように画面をスクロールさせる 次にこれはTabbarでやったものです。コードに違いはありませんが、一応。 GitHub - prince9/TabscrollViewSample: (Sorry,Japanese o
アプリを初めて起動させたときに操作方法などヘルプ画面を表示させたいときがあると思います。そんなとき使うのがNSUserDefaults。 NSUserDefaultsと言えば、本来は一時的にデータを保存して次回起動させたときにロードするというやり方が一般的です。 が、今回はそれを応用して以下の方法でアプリを初めて起動させたかどうか判定しています。 Tabbar+マルチタスクはいろいろと面倒なようで、これで正解かどうか確証はないです・・・すみません。 サンプルはこちらです。GitHub - prince9/HelpViewer: A help is displayed when starting an application for the first time. アプリを初めて起動させるとき、Tabbarで吹き出し型のヘルプを表示します。 Tab1とTab2は吹き出しのImageViewが
Githubにテンプレもどきのファイルが上げてあります。 GitHub - prince9/TabbarCoreDataSample: CoreData is used by TabBarView. TabBar+StoryboardでCoreDataを使うやり方です データをユーザが追加するタイプのアプリで力を発揮する、データベースCoreData。 Master-Detail Applicationを選んでCoreDataにチェックを入れて・・・とやりやすくはなっていますが、TableViewの前にViewを追加したりTabbarを使うとなると話は別。 Tabbed Applicationを選んで後からCoreDataを追加してもシミュレータで落ちる・・・とまあなかなか難儀でして。 どうやらViewを追加したりすると、正確にCoreDataを移植してもエラーログで「データベースがオブジ
ターミナルで.cafファイルを生成するのが一般的だと思いますが、複数ファイルを変換するときにちと大変なので、ここから変換用ドネーションウェアをダウンロードしてそのソフトで生成すると良いかもしれません。 iPhoneアプリでサウンドファイルを扱う場合は、本家objective-CもoF+iPhoneも.cafファイルというファイル形式のものを使います。 本家はaiffもwavも設定すれば使えますが、短いファイルはcaf形式で作るのが良いようです。 cafファイルは中身がaiffなので、拡張子を変えればそれで済むじゃんと思ってたらダメでした(iTunesでは再生可能?着信音作成の際に拡張子を.cafに変えればいいという記事がありましたがそれではダメでした。元のaiffファイルを見たら圧縮形式が本来のcaf形式と違っていたので、拡張子を変えるだけではダメだったようです) ターミナルで.cafファ
久しぶりのBlog投稿となってしまいました。 最近私は名古屋テレビ塔真下に設置された、日本初の1mm鉄板で作られたUstream(ネット中継)スタジオTEPPANTVに関わっています。 鉄板TVでは、毎週金曜日に様々なゲストさんをお呼びする名古屋のいいともを目指した(?)定期放送とイベントでの出張放送(いわゆるダダ漏れってやつですね)を行っています。 そこでいろいろと分かったことや気を付けたほうがいい点がいくつかありましたので、ここで自分用の備忘録を兼ねてメモしていきます。
ということで、明大の心臓破りの坂に徹夜明けの身体が悲鳴を上げつつも、がんばっておしゃべりしてきました。 感覚器官に一切頼らず、センサのデータだけで世界を認識する修行をする作品「S/N-R ToolKit」をプレゼンした、AR人体ハックの人です。 今日お話した内容はあえてフザけたこと言ってますが至極真面目なネタで、人間の認知限界は訓練によって上げられるという実体験から来てます。 あ、タイムテーブルの「?R」の部分、直前に変えました^_^; タイムテーブルでは、「ARを用いた身体感覚改造レッスン- いつか出会う「あっち」の世界の嫁のために-」となってます。 ちなみに"S/N-R"はシグナル/ノイズ+リアリティです。シグナルは「あっち」でノイズは「こっち」。 私は元々、何らかのルールに従って身体を動かして音楽を演奏する、ということを長い間やってきました。 そのルールは単純に「叩かれたら回る」 と
TwitterのFollowさんたちが「池田亮司展よかった!」と最近呟いてたんで、東京仕事の帰りに寄ってみました。 池田亮司さんは音響系業界(なんだそりゃ)で知らない人はモグリというくらいメジャーな存在です。 ソリッドに研ぎすませて鳴らしてるサイン波が印象的な作家さんです。 が、私はピーピーガーガー系の音楽はあんまり好きじゃないので、今回の東京都現代美術館での池田さんの展示も正直なところうるさくてびっくりするだけだろうと思ってました(ファンの人すみません)。 が、びっくり。すごいよかった。特に前半のビデオインスタ。 認識・知覚できるかできないかギリギリの速さでひたすら大量のデータが流れてくるビデオインスタです。 データの美学っていうのかな。 映像というものは基本的には記号の集積なわけだけど、池田さんの作品の場合、流れてるデータに興味がある人にとっては知覚できるギリギリの記号の集積が見えてい
今回は私の作品を紹介させてください。 先日、「暮らしと街の中の情報デザイン」をテーマにしたトークイベントがあり、そこでプレゼンテーションさせて頂きました。 その名は・・・ 「Tokimeitter」 ときめいたときに起こる身体の変化と状況をもとに、運命の王子様やお姫様を探します。そしてお互いに向上するために自己鍛錬プログラムが支援してくれる、 というシステムです。 この作品のキモは、 ・ときめいたときの周辺情報が自動でアーカイブ化される=ときめきをデータベース化 ・テクノロジーと愛の力を借りて、自分自身が成長できる ・一見固そうなユビキタスというものを恋愛というメタファーを通して理解できる(かもしれない) というところでしょうか。 これは身体の情報をネットワークで共有できたら何が起こるのかというところからスタートしました。 私はネットワークコミュニケーションがわりに好きで、Twitterク
身体情報を取得するアクセサリを作って、そこから得たデータを有機的なデータベースにする新作の展示準備をしてる過程で見つけました。 位置情報系SNS・BrightKite。 こういう位置情報SNSは最近盛んなのかいろいろとありますね。 個人的にはグルメ情報が多い「Najimi」をたまに使っています。 BrightKiteは「今何してる?」を投稿していくTwitterの機能に位置情報+写真がくっついた感じでしょうか。 例えばケータイ用Twitter「Movatwitter」では、「イマココ! 住所」といった位置情報つきの投稿ができたり、「twitpic」ではTwitterのアカウントで写真投稿ができます。 ですが、Twitterには文字情報しか流れないため、twitpicから投稿した写真はリンクを開かなければ見ることができなかったり、イマココ!では漠然とした住所しか分かりません。FriendFe
VRoid等で作成したVRMファイルをVRChat用に変換しつつ、アイテムを持たせたり表情を調整したりするメモです。 ★後から画像をアップロードします。ひとまずプロセスの箇条書きです VRMファイルをVRChat用に変換する こちらにプロセスが丁寧に写真付きで書かれています。下記はそのプロセスを箇条書きにしてみました。 qiita.com 変換に必要なパッケージを読み込む 1.Unityを立ち上げ、「Create project」でプロジェクトを作成 2.こちらからVRChat SDKをダウンロードし、「Assets」フォルダにドラッグ&ドロップする docs.vrchat.com 3.「Import」というボタンが出てくるので、押して2.を読み込む 4.こちらから「VRM Converter for VRChat」をダウンロードし、「VRM Converter for VRChat+Un
このページを最初にブックマークしてみませんか?
『まゆたまガジェット開発逆引き辞典』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く