サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Wikipedia
smash-panic.com
仕事でBoostを触る事になりそうなので準備してたらすっかり忘れて困ったのでメモ。 Homebrewが入っているのでHomebrewからインストール。 brew install boost 終わったらXcode立ち上げ。 Create New Xcode Project ↓ Command Line Tool ↓ TypeをC++、あとは適当。 で、できたらTargetのBuild SettingのSearch Paths欄に、 Header Search PathsとLibrary Search Pathsにそれぞれ、 /usr/local/Cellar/boost/1.52.0/include /usr/local/Cellar/boost/1.52.0/lib を設定。画面はこんな感じ。 ソースでヘッダをインクルードする際は、 #include <boost/ほにゃらら.hpp> っ
「あのサンプルで見たあの表現手法を使いたい!」と思った時に、サンプルを片っ端からビルドする、ということが往々にしてあるのでExampleのキャプチャを作成しました。 ・advanced3dExample ・cameraParentingExample ・cameraRibbonExample ・easyCamExample ・meshFromCamera ・modelNoiseExample ・normalsExample ・ofBoxExample ・orientationExample ・pointCloudExample ・pointPickerExample ・QuaternionArcballExample ・QuaternionLatLongExample
OpenFrameworksのアドオンは種類豊富で、しかもPC用に作られたアドオンをiOSに持って行ってもそのまま動作する場合が多いですが、リソースがファイルとして存在していて、パスを通す必要のあるタイプのアドオンは要注意です。 今回、自分はofxAddonsにあるofxSQLiteをOpenframeworks for iOSで使おうと思い、アドオンを追加し、OpenFrameworks for osxで動作確認したサンプルプロジェクトを走らせてみました。 ビルドは通るものの、unable to open database fileと文句を言われて落ちます。 結論としてはこういう変更が必要でした。 PC版であれば、 sqlite = new ofxSQLite(”database.db”); と記述するデータベースファイルへのパスの通し方を、 NSBundle *bundle = [NS
openFrameworksのセミナに行って以来、GLSLの面白さにハマっています。 GLSLはGPUに画像処理をさせるための拡張言語で、Vertex Shader、Geometry Shader、Fragment Shaderの3つがあります。 スマフォで採用されているOpenGLES、WEBブラウザで実装が進められているWebGLもこのGLSLを一部サポートしており、移植性が非常に高いようです。 また、WebGLはその扱いやすさからGLSL Sandboxなんていう投稿サイトまであり、色んなエフェクトとコードが公開されています。 そこでWebGLのコードをGLSL環境で動かしてみることにしました。 WebGLのコードをGLSL Sandboxから引っ張ってきて、openFrameworksで動作させてみます。 今回は、MITライセンスがしっかり明記されているStefan Gustavs
USBキーボードとマウスが机のスペースを占領しているのでMacoBookProからリモートできるようにします。 ssh自体は最初から入っているし、raspi-configで動くように設定しているので、とりあえずキーを作成します。 sudo ssh-keygen できたらRaspberry Piに割り振ってるIPアドレスを確認。 次に自分のMacBookProのターミナルを立ち上げて sudo ssh pi@<ip-adress> <ip-adress>には自分で調べたIPアドレスを入れる。 なぜか動かず焦ったのですが、ルータの調子が悪かったようでルータ再起動したら通りました。 これでコマンドはMacBookから打ち込めるように。 以下はすべてMacBookProのターミナルから。 次はデスクトップをMacBookProから見れるようにVNCのインストール。 sudo apt-get ins
Raspberry PiはSDカードにOSをインストールしますが、これはRaspberry Pi自身ではなく、他のPCを使って行う必要があります。 ちょっと変わった方法だったのでこことかこことかを参考にさせていただきながらインストールを行いました。 インストールっていうか正確にはディスクイメージのコピーですが。 自分はMacBookProで行いました。 まず、Raspberry Piの公式サイトに行き、debian系列のwheezyをダウンロード。 ダウンロードしたらterminalを起動。 df -h で、SDカードのパスを確認。 私の場合は/dev/disk3s1でした。 で、次にこのディスクをアンマウント。 diskutil unmount /dev/disk3s1 アンマウントしたら書き込み。 sudo dd if=Downloads/2012-10-28-wheezy-raspb
iBeacon作ってみました。 BLE112を購入。ファームはjesnwilly.dkさんが公開されてるものをほぼそのまま使わせていただきました。 コードの修正すら必要ありません。 それを専用の書き込みソフトからCC Debuggerでアップロード。 こちらもコードを書かず、 iPadにLocate iBというアプリをダウンロードして確認しました。 で、テストした感想。 電波強度から計算してるので当たり前ですが、凄い誤差です。 誤差が±100%程度でしょうか。実際の倍になることもあれば半分になることもあります。 また、iBeaconの発信感覚は30ms程度の筈ですが、iOSがiBeaconをチェックするタイミングは1秒に1回程度らしく、更新頻度はその程度です。 複数のiBeaconを使い、かつ空間的なキャリブレーションをすればもう少し精度を上げられるのですが、それは現在のiBeaconのフ
無料のビデオプロジェクションツール、VPT6.0。 これを使えば簡単にプロジェクションマッピングができます。 使い方を知っていると便利そうなのですが、ユーザが少ないのか日本語の解説が殆どなかったのでとりあえず書いてみます。 VPTはかなり多機能でムービの再生や単色、グラデーションでの描画、簡単なレイヤリングはVPT6.0単体でも実現可能なのですが、今回はOpenframeworksとofxSyphonを使ってスクリーンに描画したモノをマッピングします。 まず、openframeworksで適当に描画。 900*600のウィンドウに300*300の矩形を6つ描画したので、それぞれの矩形を1面としてマッピングして行きます。 この際、ofxSyphonを使ってデータを飛ばせるように設定します。 そしてVPTを起動。 まずメインコンソールの[source]欄の[syphon client]欄でof
このページを最初にブックマークしてみませんか?
『smash-panic.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く