CRTディスプレイの買い取り by アーニキー串田 (12/29) iPhoneでOpenCVを使えるようにする(6) by baryon (02/05) iPhoneでOpenCVを使えるようにする(6) by ラキシス (07/19) iPhoneでOpenCVを使えるようにする(6) by hokuson (07/19) UIImageを戻り値として返す時に気を付けないといけない事 by ラキシス (05/18)
![シミュレータと実機を区別する](https://cdn-ak-scissors.b.st-hatena.com/image/square/126e9c63960837b5815901e11e1f6c1303c17f2b/height=288;version=1;width=512/https%3A%2F%2Fblog.seesaa.jp%2Fimg%2Fogp_logo.png)
特にゲーム系では気になることだと思うのですが、メニューを見ていたりする時にアプリがスリープ状態になって嫌だという事がないでしょうか。 また、タッチを使わないで傾きだけで遊ぶアプリの場合などは特に問題になるかと思います。 そういった時は下記のように記述することでアプリをスリープしないようにすることが可能です。
最初にCGBitmapContextCreate()でBitmap Graphics Contextを作る。 Bitmap Graphics Contextに描画する。 CGBitmapContextCreateImage()でBitmap Graphics Contextに描画された内容をコピーした CGImageを作る。 作成したCGImageをimageViewにsetImageで渡す。 const int height = 480; const int width = 320; CGContextRef context = NULL; CGColorSpaceRef imageColorSpace = CGColorSpaceCreateDeviceRGB(); context = CGBitmapContextCreate (NULL, width, height, 8, wid
UIImage *img; CGImageRef cgImg; CGImageRef chipImg; CGRect cutRect; CGRect dispRect; CGContextRef context; img = [UIImage imageNamed:@"hoge.png"]; cgImg = CGImageRetain(img.CGImage); // 切り抜き座標、幅、高さ cutRect = CGRectMake(0, 0, 32, 32); chipImg = CGImageCreateWithImageInRect(cgImg, cutRect); // 表示座標 dispRect = CGRectMake(100, 100, 32, 32); context = UIGraphicsGetCurrentContext(); CGContextDrawImage(c
先日、宿題の形にしてあえて私の意見を書かなかった「Appleが打つべき次の一手」。さまざまな意見が集まって私自身にとってもとても良い勉強になったが、やはり戦略として重視すべきなのは
JSON(http://www.json.org/)データはけっこうよく使うので、何度か話題にしたことがあります(例えば「もう一度、ちゃんとJSON入門」)。でも、JSONには型情報/メタ情報が付けられないのがとても不満で、JSON改なんてもんを考えたこともありました。(後でXIONに改名) JSONデータに対するスキーマ定義の仕様がかたまりつつあることを、ごく最近になって知りました。 http://json-schema.org/ JSON本体はRFC 4627になっていますが、JSONスキーマの標準化のステータスは、あまりハッキリとは分かりません(僕には)。http://groups.google.com/group/json-schema?pli=1 を覗き見した感じでは、現状ワーキングドラフトという位置付けらしいです。 なかなか面白いし役に立ちそうなので紹介します。ただし、僕にとっ
iPhoneで使われるUIImageとOpenCVで使われるIplImageの相互変換についてです。 少々気を付けないといけない事もありますが、簡単に出来ます。 まずはUIImageからIplImageにする場合です。 - (IplImage *)ToIplImage:(UIImage *)image { CGImageRef imageRef = image.CGImage; IplImage *iplimage; iplImage = cvCreateImage(cvSize(image.size.width, image.size.height), IPL_DEPTH_8U, 4); CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB(); CGContextRef contextRef; contextRef = CGB
OpenCVを使ってちょこちょこと遊んでいます。 元画像はOpenCVのサンプルで使われているlenaさんです。 元画像のエッジ抽出を実行した画像。 元画像に2値化を実行した画像。 元画像と2値化した画像を乗算合成して、全体にぼかしをした画像。 なかなかOpenCVは面白いです。 画像はiPhoneシミュレータでの画像です。 先日の3/27発売のobjective-cの本の紹介です。 直接iPhoneに関わる部分の書籍ではないですが、objective-cについての勉強をしたい人は一度読んでみるとよいのではないかと思います。 iPhoneのプログラミングをしている人が多いようで、現在ではAmazonなどオンライン販売ではお取り寄せの状態で在庫がないようです。 本屋で見かけたら読んでみたいなぁと思う一冊です。
前回はOpenCV.frameworkを作成するところまで説明しました。 まずは作成したOpenCV.frameworkを自分のプロジェクトへコピーします。 opencv-1.1.0 → build_i386 → OpenCV.framework をコピーする。 ビルド時にOpenCV.frameworkを読み込ませるための設定をします。 上のメニューから プロジェクト → 新規ビルドフェーズ → 新規コピーファイル デスティネーションをフレームワークにします。 設定ウィンドウを閉じる。 そうすると、XCodeのターゲットのところにファイルをコピーという項目が追加されます。 OpenCV.frameworkはドラッグ&ドロップなどでFrameworkのグループに追加します。 追加すると以下のようになります。 Frameworkのグループの所に表示されているOpenCV.frameworkを
前回はOpenCVをインストールする所まででした。 今回はiPhoneOS向けのFrameworkを作る事をやってみましょう。 まずはmake.shとMakeFile.inを拾ってきます。 make.sh Makefile.in DownLoadを押してそのまま保存してしまうと長いファイル名になってしまうので、各々make.shとMakefile.inという名前を入力して保存しましょう。 保存場所はopencv-1.1.0の直下です。 Makefile.inは置き換えてしまいます。 保存したファイルは改行コードがWindowsで一般的に使われているCR+LFになってしまっていると思うので、UNIXで一般的に使われているLFに適当なテキストエディタを使って変更して保存し直してください。 iPhone 3Gが発売された後にMacOSを使い始めた自分はこれになかなか気付かず2時間ほどロスしました
OpenCVってなに?(Wikipediaより) インテルが開発・公開しているオープンソースのコンピュータビジョン向けライブラリ。 プラットフォームとしてWindowsならびにLinux、FreeBSD等全てのPOSIXに準拠したUNIXライクなOS、Mac OS X等をサポートしている。 C/C++で記述する。 ・画像処理 ・構造解析 ・モーション解析と物体追跡 ・パターン認識 ・機械学習 ・ユーザーインターフェイス 上記のようなことを処理するライブラリ。 OpenCVで注目されている一番の機能は顔認識でしょう。 最近のデジカメでは顔認識機能が搭載されていて、人の顔にフォーカスを自動的に合わせたり、笑った時や振り向いた瞬間に撮影をするということに使用されています。 この機能をiPhoneでも使えたら面白いだろうなと思います。 まずはOpenCVをダウンロードしましょう。 sourcefo
「成長」にあえて背を向けている企業がある。この会社が重視しているのは従業員の幸せと企業の永続。そして、それを実現するために持続的な低成長を続けている。人事制度は終身雇用の年功賃金。地域社会への投資も惜しまない。それでいて、10%を超える高い利益率を維持している。 私たちの足元は経済危機に揺れている。強欲の虜になったグローバル資本主義はバブルを膨らませ、金融危機を引き起こした。今の経済危機は強欲がもたらした1つの末路とも言える。であるならば、この会社の生き方は、危機後の資本主義に、そして企業経営に、1つのヒントを与えるのではないだろうか。 48年という長きにわたって増収増益を続けた企業がある。本社は長野県伊那市と、決して地の利に恵まれているわけではない。しかも、扱っているのは「寒天」という地味な成熟商品だ。にもかかわらず、1958年の創業以来、階段を上るように、一段一段、着実に成長してきた。
"TTURLRequest"で検索かけてみたら見つけたスライド。 http://www.slideshare.net/mattb/iphone-coding-for-web-developers iPhoneでのウェブサービス利用のアプリをつくるときに、標準のFoundationより便利なライブラリを紹介している。サードパーティCocoaライブラリウォッチャ的におもしろかったので、メモがてら抜き書き HTTP NSURLRequestはめんどい GTMHTTFetcherか*1、TTURLRequestを使おう XML MacOSXではNSXMLDocumentでDOMが使えるけど、iPhoneはSAXのNSXMLしかない libxml2をラップした関数PerformXMLXPathQuery()がイイ JSON NSString+SBJSONだとリテラル→NSDictionaryに変換が
先日、4/10に開催された"ITproテクノロジ・カンファレンス(徹底理解「Amazonクラウドサービス」)"にて、『Amazon EC2を使った実践SaaS運用事例』というテーマで発表しました。 (参考: IT pro テクノロジ・カンファレンスで話をします(徹底理解「Amazonクラウドサービス」)) これは、TIS/SonicGardenで展開している「SKIPaaS」というサービスを構築・運用する過程で、何故Amazon EC2をインフラとして採用したのか、Amazon EC2をどう活用しているのか、何が問題点でどういう工夫をしているのか、今後の課題・改善点は何か、といった内容です。 日経BP社様のご好意で、資料を公開してOKという許可をいただきましたので、以下に公開します。 Amazon EC2を使った実践SaaS運用事例 from Yuuki Namikawa ↑の資料のポイン
一般的には傾きセンサーと呼ばれる事もありますが、公式では加速度センサーと言います。 この加速度センサーを利用して本体を振った事を検知してみます。 プロジェクトは「Window-Based Application」で作成しています。 お試しで何かやる時はお手軽かなぁと勝手に思ってる。 とりあえず「ShakeTest」と入力して作成。 プロジェクトが作成されたら新規ファイルの追加で「UIViewController subClass」でファイルを追加する。 「MyViewController」と入力して作成。 ShakeTestAppDelegate.hに以下の赤文字の部分を追記します。 #import <UIKit/UIKit.h> @interface ShakeTestAppDelegate : NSObject { IBOutlet UIWindow *window; IBOutlet
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く