サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Wikipedia
nagano.monalisa-au.org
iOSプログラマならUIImageをJPEGで保存するときには UIImageJPEGRepresentationを使うのでMacでも NSImageJPEGRepresentationがあるんだろう、と思うかもしれませんが 残念ながらありません。 自分で実装するとしたら、次のコードが一番簡単だと思います。 NSData* NSImageJPEGRepresentation(NSImage* image, CGFloat compressionQuality) { if(image == nil)return nil; NSDictionary *dict; dict = [NSDictionary dictionaryWithObjectsAndKeys : [NSNumber numberWithFloat:compressionQuality], NSImageCompress
以前、所属していた会社でiOSアプリを作ったところ 「君が(いいもの)作れるのは分かったから、それ(iOSのノウハウ)を(部署にとどまらず)社内に広めてくれ!」 という指令がきて、僕はあまり人に教えるのは好きではないし(自分からやらなければ身に付かないと思っているので、特に外部がどうのこうのするのは反対)、そもそも自分が教える側に回れることも限られているし(Core Audioはセミナーとかやってます!)、僕もいろいろ知りたいですよ、ということで 「日々開発しているときに調べたことや、自分なりの工夫、アイディアを一人5分ぐらいで発表しあえばいいんじゃないか?」 ということで、毎週1時間、Tipsを発表しあう会をはじめました。 発表の資料のようなものは、Gistにコードと簡単な説明を張ることにしました。 コメントしあえるので便利でした。 これが毎回、非常に盛り上がりました。メンバーに
ちょいと間が開きましたがiPhone Core Audio Programming 第4回目。 今回から数回Audio Sessionをやります。 そもそもAudio Sessionとはなんですか という話は「iPhone SDK アプリケーション開発ガイド」に書いたのでそちらを買っていただくとして(なかなか好評なようです。Core Audioが載っててうれしいという声がちらほら。ありがたいことです)、ここではデバイスの情報取得・設定について解説していきましょう。 OS X Core AudioではHAL(Hardware Abstract Layer)というハードウェアレーヤーにアクセスできて、いろいろごにょごにょできるのですが、iPhoneではこのレーヤーに直接アクセスできません。 これはたぶん、iPhoneにオーディオデバイスが1個しかないからですね。OS Xだとオーディオインター
「 nagano.monalisa-au.org 」のページは、ドメインが無効な状態です。 ウェブサイト管理者の方はこちらから変更・更新を行ってください。 「 nagano.monalisa-au.org 」is Expired or Suspended. The WHOIS is here.
まともなApplicationを作ろうとするとDocument-BaseだUndoだNSCodingだと結構面倒くさいです. けど,どれも上手いこと出来ているので,Cocoaな仕様から外れなければ楽ですが,Audio ApplicationだとAudio UnitのPresetの保存だなんだとCocoaじゃない部分がもりもりでそれなりに大変. さて,久々更新,Effective? Objective-C.やっと8回目. 54. 永続化が必要なら,NSCoding Protocolを実装する (J. Serializableを注意して実装する) Javaのシリアライズがどんなだったか忘れましたが,ようはオブジェクトをファイルに書き出したり,ファイルから復元したりするということです. Cocoaではどうなのか. cocoa_breakさんが翻訳されているので(素晴らしい)参照してみると
Minutes 1.0.2 Minutes 1.0.2が出ました。 (今日11位以下に下がりましたが) なんと、Mac AppMinutes 1.0.2が出ました。 (今日11位以下に下がりましたが) なんと、Mac App Storeローンチから10日間ほど、国内ランキング10位以内に居続けることができました。 買ってくださった方、ありがとうございます。 マイナーアップデートですが、1.0.2では日本語環境での問題が1つ解決していますので ぜひアップデートしてください。 海外からが多いのですが、たくさんのフィードバックをいただいています。 そこで、それらをふまえつつ、次のメージャーアップデート1.1の準備に入っているところです。 しばらくお待ちください。 さて、Onigiriではもう去年から第二弾〜(というかMinutesは第0弾的な位置づけですが)をやっていまして 僕はG
Mac AppMac App Storeに最近やってるチームで作ったアプリをサブミットしました。 そんなわけでひさびさにCocoaをやっていました。 これからMacアプリを作る、もしくはMacな頭への切り替えが必要な方のために 自分のリハビリも含め、ぼちぼちMacのことを書いていきます。 さて、iOSアプリではなくて、Macのアプリの場合、特有の考えなくてはいけないことが結構あります。 ぱっと思いつく単純なところでは次の2つです。 ・Menu ・Window (Screen) #逆に言うと、この辺が無いiOSが非常にシンプルなわけです。 #画面に1アプリだし、メニューなんかありません。 この中から今回はWindowについて。 Document-Basedなアプリケーションの場合、たぶん自動でやってくれたりする気がしますが Windowの位置なんかを自分でなんとかしないといけな
SCCRもう30回目. まだまだSC_UdpInPortの続き. SC_ComPort.cpp: 388 void* SC_UdpInPort::Run() { OSC_Packet *packet = 0; whileSCCRもう30回目. まだまだSC_UdpInPortの続き. SC_ComPort.cpp: 388 void* SC_UdpInPort::Run() { OSC_Packet *packet = 0; while (true) { if (!packet) { // preallocate packet before we need it. packet = (OSC_Packet*)malloc(sizeof(OSC_Packet)); } packet->mReplyAddr.mSockAddrLen = sizeof(socka
思わず5回もかかってしまったサイン波編ですが,やっと完結です. 前回,サイン波を計算しました.あと必要なのは計算した数値を書き込む事ですRenderCallbackの中のAudioBufferList *ioDataが書き込み先にあたるのですが,実装してから見ていきましょう. #import <Cocoa/Cocoa.h> #import <Audiounit/AudioUnit.h> @interface SineWave : NSObject { float phase; } @end @implementation SineWave typedef struct { @defs(SineWave); } SinewaveDef; OSStatus RenderCallback(void *inRefCon, AudioUnitRenderActionFlags *ioActionFl
iPhoneのオーディオ処理APIについて解説します。 C言語とObjective-Cの基礎が分かる人向けです。 CoreiPhoneのオーディオ処理APIについて解説します。 C言語とObjective-Cの基礎が分かる人向けです。 Core Audioが初めての人は Getting Started With Audio Unitを先に読んでください。 最初から読む
Getting Started With Audio Unitの続編,Audio Unit開発入門. Getting Started With Audio Unitとは違い,AudioGetting Started With Audio Unitの続編,Audio Unit開発入門. Getting Started With Audio Unitとは違い,Audio Unitを使うのではなく,実際にAudio Unitを作ります. Getting Started With Audio Unitを読み終えた人でC++の基本が分かる(or 覚える気がある)人向け. デジタル信号処理の知識は必要無し. 「1秒間に44100個 16bitの数値を集めるとCDクオリティの音が鳴らせる」の意味が分かる程度でOK. 環境は,Mac OS X 10.5.1 Xcode 3.0です.(10.4だとA
よく「セルオートマトンよく「セルオートマトン C言語」 で検索してくる人が居るので気になっていて Twitterに投稿しようと思って140文字以内を目指したら書けたので貼っておきます。 たぶん合ってると思うのですが、ざざっと書いたので間違ってるかもしれません。 #include <stdio.h> int main (int argc, const char * argv[]) { unsigned char rule = 90, gen = 109, nextgen = 0, bit = 0; for(int i = 0; i < 8; i++){ bit = 0; bit |= ((gen >> i + 1) & 1) << 2; bit |= ((gen >> i + 0) & 1) << 1; bit |= ((gen >> i - 1) & 1); nextgen |= (
iPhone関連の特定フレームワーク、ジャンルに特化した本が二つ出ました(出ます)。 横江iPhone関連の特定フレームワーク、ジャンルに特化した本が二つ出ました(出ます)。 横江 宗太さんの「OpenGLで作るiPhone SDKゲームプログラミング」 所 友太さんの「iPhoneプログラミングUIKit詳解リファレンス」 です。 「OpenGLで作るiPhone SDKゲームプログラミング」 iPhoneでOpenGLな本出ないかなぁ、と思っていたら出ました。 感想としてはともかく明解。OpenGL、ゲーム開発ってこんなに簡単に説明できるの?というぐらい明解。 第1章で以降の章で使うグラフィック・ライブラリを自作し、2章以降で実際に使ってゲームを作る、という進行になっています。 で、このグラフィック・ライブラリの自作(とゲームの制作過程)が面白い。 ちょっと進めたらリファクタリ
「iPhone Core「iPhone Core Audioプログラミング」が発売になりました。 BlogやTwitterを見る限り、ご好評いただいているようで一安心しています。 「これでショートカットできる」、「本当に網羅している」や 「基礎的トピックもしっかり書いてあってよい」という反応をいただきました。 「入門」とはタイトルに入っていないのですが 「Core Audioを始めた当時(2004年)の自分が欲しかった本」 を目指して書いたので、大変うれしく思っています。 さて、実際に購入いただいた方のレビューをご紹介。 O-Planning ゲーム制作のちょっといい話: iPhone Core Audioのバイブル的書籍「iPhone Core Audioプログラミング」発売!! この書籍のもっとも注目すべきところは、他の書籍では「これくらいなら当たり前の知識だから、他の書籍を見る
iPhoneのCoreiPhoneのCore Audioのみを解説する本です。 総ページ数564ページと、iPhoneアプリ開発本の中でもおそらくトップクラスのページ数、そのすべてがiPhoneのCore Audioの解説という前代未聞(?)、世界初の本です。 iPhone Core Audioのすべてのフレームワーク、サービスを解説しています。 #読みやすさ、分かりやすさを考慮してiPhoneのCore Audioに絞って書きましたが、Mac OS XのCore Audioにも応用可能だと思います。 内容としては、Getting Started With Audio Unit、Introduction to Audio Unit Development、iPhone Core Audio Programming、3つの本Blogの連載を下地に、ともかくiPhone Core Audi
11/11か12、(一部書店ではその前の土日ぐらいに)本が出ます。 ずばり、iPhoneのCore11/11か12、(一部書店ではその前の土日ぐらいに)本が出ます。 ずばり、iPhoneのCore Audioのみを解説した本を書きました! 総ページ数564ページと、iPhoneアプリ開発本の中でもおそらくトップクラスのページ数、そのすべてがiPhoneのCore Audioの解説という前代未聞(?)、世界初の本です。 iPhone Core Audioのすべてのフレームワーク、サービスを解説しています。 #読みやすさ、分かりやすさを考慮してiPhoneのCore Audioに絞って書きましたが、Mac OS XのCore Audioにも応用可能だと思います。 内容としては、とにかくほぼ全部書いてあるんですが、各フレームワーク、サービスと章の関係は次のようになってます。 Audio T
ちょいと間が開きましたがiPhone Core Audio Programming 第4回目。 今回から数回Audio Sessionをやります。 そもそもAudioちょいと間が開きましたがiPhone Core Audio Programming 第4回目。 今回から数回Audio Sessionをやります。 そもそもAudio Sessionとはなんですか という話は「iPhone SDK アプリケーション開発ガイド」に書いたのでそちらを買っていただくとして(なかなか好評なようです。Core Audioが載っててうれしいという声がちらほら。ありがたいことです)、ここではデバイスの情報取得・設定について解説していきましょう。 OS X Core AudioではHAL(Hardware Abstract Layer)というハードウェアレーヤーにアクセスできて、いろいろごにょごにょできるので
iPhone Core Audio Programming 1回目。 Getting Started With Audio Unitが2006/12、Introduction to Audio Unit Developmentが2007/11と、情報が古くなってきました。加えて、iPhoneの登場でCore Audioが次の次元へ進みました。Core AudioとiPhoneが出会い、「いつでもどこでもCore Audio」な時代の到来です。そんなiPhone Core Audioの全容がやっとつかめてきたので、続編iPhone Core Audio Programmingをはじめます。 iPhone Core Audio Overview まずは最初にOS X Core AudioとiPhone Core Audioの違いを把握しておきます。 Audio Session iPhoneはモ
PurePure Data(以下Pd)がiPhoneで動かせたので、いろいろ拡張すべく格闘しています。 Pdの使い方が実は分かってないとか、いろいろ(大きな)問題はありますが、なにはともあれプラグインで拡張です。 そう、Pdは自分でオブジェクトをCで書いて拡張できるようになっています(エクスターナル・オブジェクト。以下External)。画面に出てくるあのブロックを自作できるわけです。 Windowsはどうだか知りませんが、Mac OS Xの場合Pd-extendedをインストールしているなら /Applications/Pd-extended.app/Contents/Resources/extra/bonk~/bonk~.pd_darwin みたいに、.pd_darwinというファイルがあります。これがExternalです。 Cで書くのだから、Xcodeで作れます。 という
洋書解読(翻訳)な日々を過ごしております. がりがりコーディングしたいですが,こういう勉強期間も必要です. さて,Getting Started With Audio Unit,新章突入です. Blogを変えたのでファイル添付が便利というわけで,初のSample Code付き. (といっても前のネタの使い回しですが) Introduction サイン波の章でやったように,単に音を鳴らすのであればOutput Unitに音を鳴らすルーチンを設定してAudioOutputUnitStartとやるのですが,AudioアプリケーションではEffectを使ったり,その音を複雑にルーティングしたりする必要があるでしょう. Core Audioはそういったオーディオ シグナルのルーティングの仕組みを持っています.それがAUGraphです. AUGraphを使えば,Audio Unitを複数接
勉強会を企画しています。名付けて「PureDataのソースコード読んでどうにかする会」 PureDataって何? オブジェクトと呼ばれるブロックを複数接続して、オーディオ、グラフィック処理が行える、オープンソースのソフトウェアです。 Mac/Win/Unix/Linuxなど、およそメジャーなOSに対応しています。言語はCでGUIはTcl/Tkです。 http://puredata.info/ (本家) http://puredata.info/downloads (Get PD!) 何やる会ですか? 基本、PureDataのソースコードを読んで、応用する会です。デジタル信号処理の勉強や、自分のソフトウェアへの応用をメインに考えています。PureDataはオーディオメインですが、GEMという3Dグラフィクス用オブジェクト群もあるし、GUI部分を改良するならQuartzを使うなど、グラフィ
いろいろあって、本日またフリーランスに戻りました。フリーは随分やったので、どこか企業に入ってチーム開発を経験してみたいなと思っています。ということで、就活の意味合いも含めて、情報公開していきます。 Cocoa/iPhone、Core Audio/Quartzあたりができるプログラマーが必要な企業さま、よろしくお願いします。Webプログラミングもそこそこできます。 そんなわけで、iPhone Core Audio Programming 2回目 前回、これまでGetting Started〜で書いてきたことがiPhoneでも通用すると書きました。 あと、Core Audioはいろいろありすぎてわけわからん!などと言われているようですが、たしかにそうだし、サンプルコードがほとんど無いというのはありますが、実は結構簡単です。 まずはそれを証明しましょう。 そこでまずは、というかいきなりA
次のページ
このページを最初にブックマークしてみませんか?
『My Codex Leicester』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く