
コルグVolca Sample、Volca Sample専用アプリAudio Pocket がリリースされたばかりです。Volca Sampleにはマイクロフォンが付いていないので、ユーザーはこのiOSアプリを使ってサンプリングを行い、サンプルデータを本体に転送することができるようになるという、iPhone大全盛時代ならではのモダンスタイルなサンプラーです。しかしここに留まらないのがVolca Sample!! コルグは昨日Volca Sample SDK(ソフトウェア開発キット)を公開。このVolca Sample SDK はVolca Sampleのためのアプリを独自に開発するための手助けとなるもので、開発者のコーディングスキル次第では様々なタイプのサンプラーアプリを開発することができるようになるとのことです。Volca Smaple SDK の主な特徴は以下の4点。 encode s
先週、ドイツベルリンで開催されたMusic Tech Fest、音楽テクノロジーに焦点を当てたアカデミックなリサーチや実験的なデバイスの発表を行なう定期イベントなのですが、そのイベントでの今回の優勝者が見せてくれたものは「デジタルアルゴリズムとスタンドアローンハードウェアを合体させるプラットフォームAxoloti」 というものでした。 Axoloti はAxoloti Patcher というMax /MSPのようなソフトウェアを使ってシンセパラメーターパッチを作り、これをAxoloti Core というマイクロコントロールボードに転送することによってパッチが動作。さらにAxoloti Control というコントロールボードを使うことによってパッチを手で操作することが可能になり、コンピューターなしで、スタンドアローンのハードウェアとして使うことができるようになるものです。 ちなみにAxol
ワウペダルが好きです。ギターのカッティングにかけて遊んでいるとあっというまに時間が過ぎていきます。そんなわけでどこのご家庭にもあるiPhoneとJavaScriptでワウペダルを作ることにしました。こんなやつ。 JavaScriptでiPhoneの加速度センサーとWeb Audio APIを使ったワウペダル作った。 http://t.co/rGDHh5FaWb https://t.co/erfjy9tL80— aike (@aike1000) 2014, 10月 20 ■作り方 まず、Web Audio APIでフィルターを作ります。 Biquad Filterを作ってバンドパスフィルターに設定するだけです。簡単。Qの値を少し大きめの4くらいにしておくとワウらしいクセが出ます。あとは0.0〜1.0の引数の値に応じてフィルターの中心周波数をセットする関数setWahPos()を用意しておきま
openFrameworks や Max/MSP, SuperCollider などで良く使われるメッセージングプロトコルに OSC (Open Sound Control) というのがあって、どんなものかについては この辺 を参照して欲しいのだけど、node-osc-min というライブラリを使えば OSC のメッセージを JavaScript でも解釈できるのでそれで遊ぶ話です。 名前に node と付いているけどバージョン 0.2.0 からブラウザにも対応していて、以下のコマンドでブラウザバージョンをビルドできます。 $ git clone https://github.com/russellmcc/node-osc-min.git $ cd node-osc-min $ npm install --dev $ npm run-script browserify $ ls build
またか。と言われてしまいそうだけど、またウェブ楽器プログラミング用のライブラリを作った。 以前に timbre.js というライブラリを作ったのだけど、それの刷新版という感じです。 デモ ドキュメント 名前の由来 特徴1: 機能性よりパフォーマンスを重視 以前は多くの動作環境をサポートするためにすべての信号処理を JavaScript で書いていたのですが、それゆえにパフォーマンスに問題があって(Issueでよく指摘された)、neume.js では IE や node.js での動作を諦めて Web Audio API の機能を大活用することでパフォーマンス問題を解決しました。デモでは three.js や gretro と一緒に動作する様子が確認できます。 特徴2: Web Audio API の面倒な部分を抽象化 Web Audio API は多機能なんだけど、部品が細かすぎて使いこな
先日、「カシオの耳コピアプリ、Chordana Viewerがより強力に進化したよ!」や「結構使えるiOSで動く耳コピアプリ、Chordana Viewer」ということで紹介したカシオのiPhone/iPadアプリ、Chordana Viewer(コーダナビューワー)および、無料アプリであるChordana Tap。よくiPhoneやiPadでここまでのことができると感心してしまうのですが、気になるのは、機械はどうやって耳コピを実現しているのか……という点です。 「耳コピとは人間の耳だけでコピーすることであり、機械がやるのなら解析だ」というツッコミは置いておいて、この技術について興味を持っている人は少なくないと思います。先日、Chordana ViewerやChordana Tapを開発しているカシオ計算機株式会社の開発本部 コンシューマ事業部・アプリ企画推進室の南高純一さんにお話しを伺う
WWDCでのアップルの発表によると、iOS 8 では4000以上もの API が追加されたとのことですが、新しいAPIはどう使うのか、実際に何がどこまでできるのか、といった具体的なところが、英語のドキュメントや動画をながめているだけだと正直あまりよくわかりません。やはり実際にコード書いて動かしてみるのが一番わかりやすい、ということで今年もつくりました、 iOS 8 新機能のサンプルコード寄せ集めアプリ『iOS8-Sampler』 ソースコードは GitHub に置いてあります。 https://github.com/shu223/iOS8-Sampler ※使い方は Xcode 6 でビルドするだけ なので、デザイナーさんやディレクターさんもぜひ最寄りのエンジニアにビルドしてもらってください。 中身について 今回はデザイナー okazu 氏の協力により立派なアイコンやスプラッシュ画像が最初
2014年9月13日に Web Music ハッカソン#3を行いました。今回もGoogle さんと Web Music Developers JPの共催、AMEI(音楽電子事業協会) さんの後援です。 当日の参加人数は40+名で、合計26作品+1曲がハックされました。 それらのハック中の様子も音楽系ハックならでわで、絶えずあちこちから「ビー」とか「ブー」とか、時にはポケミクの声がしたり、また会場にはAMEIさんから提供していただいた楽器もたくさんありハックに利用したり、また休憩中に楽器単体で、または別の機器と接続をして楽しみながらアイデアを模索したり、と音楽系ハッカソンならではの出来事があちこちで発生していて非常に活気のある奇想天外なハック会場になっていました。 また11月16日〜22日に慶応義塾大学SFC研究所主催でORF(Open Research Forum)にて「Webと音楽」をテ
スクウェア・エニックスのオンラインゲーム「ファイナルファンタジーXIV: 新生エオルゼア」において、アップデートで新たに「サウンドの視覚化」機能が追加されることが分かりました。 9月16日に導入される「パッチ2.38」の新機能の1つで、アクセシビリティの項目に新しく「サウンドの視覚表現」という項目が追加されます。オンにすると画面の左右に、現在流れている「音の波形」が表示されるようになり、耳が聞こえづらい人でも音楽や効果音を視覚的に捉えられるようになるそう。青色はBGM、赤色はシステム音、緑色は効果音や環境音・ボイスをそれぞれ指しており、波形の色によっても音の種類を見分けることができます。 より多くのお客様にプレイしていただきたい、という取り組みの一環とのこと。「パッチ2.38」ではこれ以外にも、新たなサブストーリークエストの追加、個人宅購入の解禁などさまざまなアップデートが行われます。 a
90年代に登場し、音楽制作の方法を劇的に変えたDAW(デジタル・オーディオ・ワークステーション)ソフトウェア。Logic、Cubase、ProTools、Ableton Live、 StudioOne、 Bitwig、、今となっては数多くのDAWソフトウェアが存在しますが、将来、これらのようなDAW ソフトウェアはWeb化され、ユーザーはインターネットでサイトにアクセスするだけで音楽制作を行なうことができるようになるなんていう予想図を描いている人たちがいるようなのです。 ささやかにデビューしたばかりのWAVEPOTもそのうちの一つで、JavaScript を使ったシンプルなソフトウェアです。 まず、このサイトにアクセスしてみると何やら難しそうなコードの羅列が目につき、これまでのDAWソフトウェアとは様子が違う様子が目に入ります。ここで逃げたくなってしまう気持ちも多々あるわけですが、まずは右
2014.08.20 名前を変更しました。 wamml => MMLEmitter Web Audio API用のMMLイベントシーケンサーを作りました。 MMLEmitter- GitHub MMLEmitter - online playground 概要 音楽プログラムを大雑把に説明すると 楽器 (音色) 譜面 (音程とタイミング) の二つの要素を解決するプログラムと言えます。MMLEmitter はこの 譜面 の部分のみを解決するライブラリです。AudioContext と MML を引数にシーケンサーを生成して起動すると、MML に記述したタイミングでイベントが発火するので、そこで音を出す処理を行います。Web Audio API 依存なので今のところ(サポートされないかぎり) IE では動作しません。あ、MML というのは楽譜を文字列で表現するための記法です。 MML - Mu
オーディオ・音声分析への道 その1 XcodeとvDSPで行うオーディオ、音声分析について淡々と書いていきます。 言語はCでいきたいと思います。 vDSPはAppleが提供する信号処理ライブラリです。Accelerate.FrameworkとしてXcodeと共にインストールされています。Intel Macはもちろん、iPhoneやIPad用のアプリ開発にも使える便利な代物です。 さて、この「オーディオ・音声分析への道 」はとても単純な配列計算から、FFTを使用した信号処理法、音の性質の分析法、はたまたケプストラムなど専門的な所迄、目指してがんばりたいと思います。 まず、その1では、Xcodeのセットアップからやりたいと思います。 その1 Xcodeを起動する。 当方、Xcode 5.1.1を使用しております。 MacOSはMaverix です。 すると、下の様な画面が出てきますので、左メニ
■iOS 7でのUSBハイレゾ出力方法を高橋敦がナビゲート! このあたりに目を光らせている方ならご存知のことと思うが、iOS 7へのアップデートでこっそりと、iPhoneやiPod touchからUSB-DACへの出力(ハイレゾもOK)が可能になった。従来はiPadのみで可能だった裏技の適用範囲が拡大されたわけだ。…というわけで、今回はアプリ周りまで含め、そこをガイド&テストする! < 目次 > ・iOS 7以前はiPadのみの裏技だったUSB-DAC出力機能 ・iPhone 5からのUSBハイレゾ再生手順をナビゲート ・ヘッドホンアンプ「HERUS」でハイレゾ再生音質チェック! ・カメラアダプタ経由で動作するUSB-DACと動作しないUSB-DACの違いは? ■iOS 7以前はiPadのみの裏技だったUSB-DAC出力機能 まずは基本情報を確認しよう。iPadについてはiOS 7よりも前
最近ではヘッドフォンなどの音響機器もリリースしている、ベース・アンプ・メーカーのフィルジョーンズベース。今回紹介するのはベース専用のポーダブル型ヘッドフォン・アンプだ。内蔵バッテリーで約8時間駆動する本機はアナログ/デジタルに対応し、ベースを直接挿せるほか、iPodなどをAUX INに接続すればヘッドフォン・アンプとしても使用できる。また、USBでコンピューターと接続すればオーディオ・インターフェースにもなり、最大で16ビット/48kHzの入出力が可能という便利アイテムだ。 そんな多機能なヘッドフォンアンプだが、基本的には本機は“ベース専用”モデル。ここではヘッドフォン・アウトの音声を聴いてみたが、フィルジョーンズベースらしい味付けの少ないピュアなサウンドが楽しめた。EQはフラットでもかなり良い音質だが、高域/低域ともにEQの効きは良いので、自分好みのサウンドにしてもプレイを楽しめる。動画
Core Image や vImage や OpenCV、それらをラップする各種ライブラリの充実のおかげで、画像処理まわりは高度な処理をずいぶん簡単に高速に実装できるようになってきましたが、オーディオ処理(音声処理)まわりはいまだに再生や録音などの基本的なところから一歩踏み込もうとすると途端に敷居が高くなるイメージがあります。 たとえば2年ほど前にリリースした『i聖徳太子』は、「左右のイヤフォンから別々の音を再生する」という非常にシンプルなアイデアですが、たったこれだけのことでも AVAudioPlayer やMPMusicPlayerController とかだけでは実現することができず、OpenALやAVAsset等を使用して実現しています。 で、もうちょっとオーディオ処理まわりを勉強してみたいなと思い、まず手元にある書籍で参考になりそうなものを洗い出してみました。 以下、(だいたい)
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く