iPhoneのカメラからの入力をリアルタイムに取得し、何らかの画像処理を行う、つまり iOSアプリで動画処理を行う のは、なかなか面倒です。 下記記事を見るとわかりますが、 シャッター音の鳴らないカメラアプリの実装方法 - Over&Out その後 AVFoundation を用いて、 カメラからの入力を毎フレーム取得しようとするだけで、かなりやることが多い です。デリゲートメソッドに渡されてくる画像データが CMSampleBufferRef という型で渡ってくるのも(個人的には)ハードルを感じる部分で、毎回「どう取り扱うんだっけ?」とググってしまいます。 さらに、毎フレーム送られてくる画像情報をリアルタイムに処理をしようとすると、やっぱり OpenGL ベースで処理 する必要が出てきて、これまた(個人的には)気が重くなってしまうところです。 ところが、videoGrabberExamp