●最終的なプログラム(m.c) それなりの苦労の末に完成したプログラムをお目にかけます。これは標準入力(=パイプ)からデータをもらうと、対応して"音符"を作成していくものです。 簡単に仕様のようなものを抜き書きしておきます。 8種類のプロトコルを"音符"に変換する。特定のポートについてはリズム系の音に変換する。 1秒間ごとにサンプリングを行って、複数のプロトコルを検出すると同時に音を鳴らす(=和音を作る)。 1分ごとに MIDI ファイルを生成する。60ファイル以上は上書きをする。 デバッグ・モードでは生成している MIDI データ(16進)を表示する。 デバッグ・モードは、-x のオプションを付けて起動してください。下の画面スナップのように動作中の様子が観察できます。 【デバッグ・モードでの動作画面】 本当の意味でのネットワーク監視は、tcpdump
ビデオ: Sohya Ohyama: ≠! 先日、#5で出演して頂いたvvvv使いvoice.zeroの大山さんの個展が行われました。オリジナルのマルチタッチディスプレイを作り、一台のプロジェクターから天井、床、テーブル面、 そしてテーブルに映る鑑賞者の手の中に映像を投射する”マルチレイヤー”を実現しています。システム的にはマルチタッチ解析をvvvv、サウンドをmax/MSPで行っているようです。 そしてその時のノウハウを活かした「マルチタッチテーブルを作ってみよう」という連載が始まりました。vvvvで書きますが、ハードはC++やmax、processingでも使えるように作ります。とのことです。日本語のリソースとしては貴重なものとなると思いますので興味がある方は是非チェックしてみてください。
a geek's personal memo for computer, music, sound, electronics, gadgets, network, etc..... http://monome.org/ だいぶ前に頼んでいたんだけど、ようやく順番が回ってきたかと思ったらPayPalの振込み上限解除をしていない自分がいて、それでまたさらに手続きが遅れてしまい、西へ逃亡している最中にようやく発送され、帰国と同時に無事受け取れるも、全く時間がなくて今日ようやく多摩美に持ち込んで少し遊んでいる、一部で話題のmonomeの40hでっす;)。 デバイスとしては、USB-Serialなものなので、いろんな環境で利用できそうだけど、とりあえずmonomeにデモ用で用意されている64stepというMax/MSPのパッチで遊んでみる。 OSXでは、まずは http://ftdichip.com
昨日の続き。直接音と間接音のレベル比を計算します。ISO 3382という規格にclarityという物理指標が出てきます。インパルス応答の前半部分(直接音に対応)と後半部分(間接音に対応)のレベル比をdBで求めるもので、例えば以下のような式で表されます。 この式は直接音から80ミリ秒を境目として、その前後の音圧比を求めます。80ミリ秒はだいたい初期反射音と残響音との境目だということです。C80ではなくC50やC30を使えば、室の大きさによって異なる反射音と残響音の境目に対応することが出来ます。また、C1とかC0.1などのように、小さい値を用いれば直接音と間接音の境目にすることもできるでしょう。 ただし、この式を使うためには、インパルス応答の直接音に相当する部分を自動的に見つけなければいけません。こんなかんじでやってみました。 [z, zind] = max(log10(abs(diff(x
Matlabで部屋のインパルス応答の分析をしています。とりあえず残響時間の計算が出来て、直接音と間接音の比を求めようと、Matlab用のプログラムを書きました。 function y = reverb_envelope(x) % REVERB_ENVELOPE Calculates reverberation envelope % y=reverb_envelope(x) calculates reverberation envelope y from % an impulse response x. This function can be used to see how % the reverberation decays in the corresponding room. % % Reference: Ooga, Yamazaki, and Kaneda % "Acoustic S
Zoom H2というのは4chのPCM録音ができるポータブル・レコーダーなのですが、せっかく4つのマイク位置が固定になっているので、それを使って遊んでみようと思い、Matlabで非常に単純な方法で音源方向の認識を行うMatlabルーチンを作ってみました。H2には前方は90度に、後方は120度に開いたマイクが搭載されています。便宜的に、全てのマイクが同じ位置に置かれた理想的な単一指向マイクだとして、音源到来方向を4chに録音された音の音圧比から求めます。 途中にマイクの指向性を描いたり(デバッグのため)、窓関数をかけたり(メインループ部分をSTFTルーチンから持ってきた名残)、いろいろと無駄な部分がありますが、マラカス単一音源で試してみたら、ちゃんと方向を示してくれました。せっかくだから、これをMax/MSPで拡張して音源方向を向くマイク※とか話者にカメラを向ける三脚※とかを作ろうかと思った
2008年02月14日02:31 カテゴリDAWオーディオ Convolution Reverbについて 覚書 コンボリューションリバーブ、IRリバーブ、について調べて興味深かったこと。 真面目な計算方法は、インプットの各サンプルにインパルス応答の各サンプルを順に1サンプルづつ掛け算して足していく、という単純なものである。が、この方法ではタップ長(インパルスレスポンスの長さ)が長くなると、計算量が多くなりモダンなCPUでも手に負えなくなる(インプットのサンプル数xタップ長、回分の掛け算と足し算になる。)。これはシンプルなフィルタなら可能だが、リバーブにはまだ使えない方法である。 ので、FFT-iFFTを使うのが普通である。(というかリバーブの長さになると現状それ以外無理である。)、当然FFTをするときやりかただのブロックの分け方、オーバーラップの仕方、などなど、で、またさらに幾種類ものアル
Akihiko Matsumoto Blog松本昭彦ブログ <max/msp、openmusic、Java、アルゴリズミックコンポジション、 音響合成、音響処理、和声学、対位法、ピッチクラスセット理論、エレキギター Proce55ing、iPhone、ajax、Webプログラミング> 開発したVSTプラグインや音楽作品はHPにて公開中ポリフォニックなサウンドをMidiに変換Max/MSP Max/MSPにtranscribe~というオブジェクトがあります。このオブジェクトはオーディオソースを解析してリストしてくれるオブジェクトです。 このオブジェクトを利用すると、オーディオ信号をMidiに変換することができます。 過去にもモノフォニックなオーディオソースに限ってピッチを抽出し、Midiに変換する機能を持つ機材がローランドなどから出ていましたが、ポリフォニックなものは現在の
VSTプラグイン作成の大まかな手順のメモです。 なお、作成にあたり私は、 OS:Windows XP Proffesional SP 1 開発ツール:Visual C++ 6.0 SP 5 ライブラリ:VST SDK 2.3 ホストアプリケーション:CUBASE SL を使用しています。 プログラムを作成するために、まずは、VST SDKを入手しましょう。 VST SDK 最初にSDK(Software Development Kit 開発キット)を入手する必要があります。VSTのSDKは、C++でできています。SDKに入っているクラスを継承した独自のクラスを定義していくことで、VSTプラグインのプログラミングを進めていくことになります。 VST SDKは、Steinberg社のサイトから入手してください。 http://ygrabit.steinberg.de/ LICENSING AG
晴れて情研非部員になってしまったryです。 まだ自分では主要部のコードを書いてみてないんですが、 The DSP Dimension: Pitch Shifting Using The Fourier Transform (フーリエ変換を使ったピッチシフト) http://www.dspdimension.com/admin/pitch-shifting-using-the-ft/ というすばらしそうなものを見つけたのでさっそくALに出力するテストコードを書いてみました。 まあやる気ないコードですが... テストコードとexe 実行にはOpenALがいります。 コンパイルにはインクルードとかとOpenALSDKとALUTとboostがいります。 (むしろ上のところにソースコードあるから自分でテストコード書けば早い。) (2008.05.13: 一般的に言われている
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く