サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
iPhone 16
mirror.boy.jp
最近のアップデートで登場したcURLのMaxラッパーであるmaxurl。ついにMaxがインターネットと繋がる!と期待が高まり、勉強がてらサンプルコードを弄ってみました。 まずmaxurlのヘルプパッチを見るのがオススメです。タブになっていて、いくつものサンプルがいじれます。上記画像はヘルプパッチの良いねボタンサンプル。良いねボタンを押すとサーバー上のいいねカウントが1つあがる。 更に詳しい説明が書いてあったのは→Use MaxURL to Create a Realtime Instagram Collage MaxでWeb APIを扱う2つの方法 どうやら、Maxがインターネッツとのリクエスト・レスポンスを扱う方法は二種類あるようです。 maxurlとdictを使うパターン。JSONでクエリを生成し、それ以外はMaxらしいパッチングで行う方法 jsオブジェクト(javascript)を使
先日 Cycling’74 Max7 勉強会(のβテスト開催)をDMM.make AKIBAの一角を間借りして開催しました。ちなみに急遽開催だったため、お呼び出来なかった方すみません。参加者は左から→@CO_CO_ / @ishicca / TY0004 / @raykunimoto / @nanagagatata + @mirrorboy 勉強会の内容 半日かけてMax7の新機能を中心に、各々が気になる機能を好き勝手触るという無謀なやり方でしたが、結果的には皆で新機能に関する知見が共有できました。 参加者の中ではBEAPとVIZZIEの扱いやすさが特に人気でした。サウンド・アートなどをされている神谷氏(@ishicca)。最近はデジタルを使わない作品が多いため、Maxを弄るのは久しぶりだったとのこと。 チュートリアルをやるMaxレッスンの生徒さん。右側で実演される動画に合わせて、左側で実
Max for Liveで映像連動したLiveがしたい! 東京からAbleton Liveの魅力を伝えていこうというAbleton User Group Tokyoの運営メンバーに加えさせて頂きました。主にMax for Live関係を担当させてもらう事になりました@mirrorboyです。これから何度かに分けてMax for Live映像を出力するネタを書いて行こうと思います。 まずは、「Max for Liveから最速で映像を出す」です。Ableton Liveユーザーの方の中には、音と映像を連動したライブをしてみたい!という方も多いのでは無いでしょうか? 単純なパッチなら1分でつくれます。 Vizzieだけ覚えて帰って下さい! これだけでAbletonから映像再生ができます。(でも詳しい方はご存知かもしれませんが、Ableton単体でも映像の再生・打込みができたりしますね。カットアッ
jit.gl.modelにロードしたテクスチャマッピング済みのモデルからGPU上のUVマップ後のテクスチャを取得したいが方法が見つけられなくjit.gl.shaderから取得はできそうという内容でした。 その後、一晩寝てみたら落ち着いて、OpenGL対応の環境でテクスチャが取得できないなんてころあるんかと思い直し(諦めが悪い) もう一度 jit.gl.modelのReferenceを見直すと gettexnames というメッセージを発見しました。 取得してみると と .jpgの名前が取得できます。これは単にUVマップ前のテクスチャなのかなと思っ他のですが、先頭に “u514*****_” とついている事に気がつきました。おっこれはjit.gl.texture上に読み込まれた画像などにつく名前じゃないか?と そこで jit_gl_texture + 先ほど取得したファイル名を組み合わせてj
IKEAで買った温度・湿度付きの時計がすぐにズレるのが気になったので、手持ちのM5StickCPlus + ENVⅢ Hatで簡単につくってみました。ENV Hatを本体に直付けすると熱がこもるか本体の温度に引っ張られるような感じで+2~3℃上がってしまう問題があったので適当に引き伸ばしています。 世のサンプルコードでSHT3Dのインスタンスに対してinitを呼んでないことが多かったのですが、それだと起動時点で動作が止まってしまうので sht30.init()呼んでいます。 サンプル #include <M5StickCPlus.h> #include <WiFi.h> #include <NTPClient.h> #include <WiFiUdp.h> #include <Wire.h> #include "M5_ENV.h" #include "Adafruit_Sensor.h"
コンテンツへスキップ 映像をアプリ間でシェアできるライブラリ Syphon 。Processing では、FullScreen Library が使えなくて困っていたので、 Max6 に映像送って全画面化して使ってます。 Processing から Syphon Server へ映像を送る時に、Example には createGraphics した PGraphics にオフスクリーンで描画しておいて、PGraphics を Sypohon サーバーに送るという方法が書かれています。ただし、途中まで作ってSyphon化したい時なんかに、描画命令全部を拾って PGraphicsするのは面倒くさいです・・・。実は、もっと簡単な方法があります。 [javascript] import processing.opengl.*; import codeanticode.syphon.*; Syph
パフォーマンス問題 現在開発中のコバルト爆弾αΩ用のDVJパッチは、複数の動画と音を同時に扱うため今までになく重く、フレームレート5fpsくらいしかでてなくて泣きそうでした。一応、Max上で見られるMSPのCPU仕様率は10%もいってないし、jit.qt.movie には loadram メッセージを送る事で動画はメモリに直接おいて、ボトルネックになりそうな部分は回避してるつもりなんですが、上手くいっていませんでした。 Max6をMacのアクティビティモニタでみると1つのコアしか使ってないみたいです。CPU使用率は130%前後。ハイパースレッディングが効いてるはずなので、1コア最大200%だとしても70%くらいCPU使えてないように思えます。メモリも8GB空いてる!なにが原因だろうと、まずはマルチコア使うように変更できないかな?とCycling74のフォーラムを漁ってはみたものの、マルチス
ProcessingからMakerbot/Reprap等の3Dプリンターで印刷が可能な.stlフォーマットを出力できる Modelbuilderという素晴らしいライブラリがあります。サンプルプログラムを動かす為に一苦労したので、動かし方をメモ代わりに書いておきます。あくまで今日の時点で動いた構成ですので、ProcessingやModelBuilder、ControlP5のバージョンが新しくなった場合は、この限りでは無いと思います。 Processing 1.5.1 を利用する。原因は調べられていないですが最新版の2.0では、上手く動きませんでした。個人的にProcessing2.0と共存させたかったので、Processing1.5.1は、アプリケーション名をProcessing.app → Processing151.appへと変えて、2.0と共存させています。 Modelbuilder
このページを最初にブックマークしてみませんか?
『mirrorboy – OTAKU / GEEK / DISCO』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く