iPhone開発修行、ちょっと進展したのでご報告。 現在オーディオ・ビジュアル表現のためのアプリを作成したいと考えていて、やはりこういったジャンルはiPhone用のopenFrameworksを利用するほうが効率が良さそう。openFrameworksでサウンドを活用する場合、あらかじめリソースの中に.caf形式のサウンドファイルを入れておいて、それを参照するやり方が一番標準的な方法だ。また、マイク入力を利用してリアルタイムのサウンドストリームを利用することも可能となっている。 ところが、openFrameworksはそのままではiPhone内のiPodライブラリ内の曲のデータは参照できない。せっかくなら、自分のiPhoneに入れた音楽を使用していろいろ面白いビジュアライズをやってみたい。そんなわけで、iOSのSDKを直に利用してiPodライブラリ内のサウンドデータを参照する方法がないもの
![iPodライブラリ内の曲をopenFrameworksで読み込んでサウンドレベルを取得する](https://cdn-ak-scissors.b.st-hatena.com/image/square/b25aae93662c096f93acc2e61443ef8af25e6e49/height=288;version=1;width=512/http%3A%2F%2Flh5.ggpht.com%2F-WYCya4_UKDA%2FTkut7dwAYHI%2FAAAAAAAAF00%2F6kwOnMWa1_c%2Fpicker.jpg%3Fimgmax%3D400)