Parrots in captivity seem to enjoy video-chatting with their friends on Messenger
できの悪いコードと同じように、脳をデバッグできたら良いのに、と思いませんか? 自分自身をプログラムし直すのは無理かもしれませんが、デバッグの理屈を応用すれば、より良い習慣を身につけるのに役立ちます。ではさっそく、その方法をお教えしましょう。人間の脳は、バグだらけのどうしようもない代物です。よくあるバグを再現してみましょう。「ジムに行きなさい」という命令を自分に発したとします。たいていの人の脳は、この命令を受けても、Facebookをアップデートしてしまったり、猫の動画を見てしまったりします。これは望ましい行動ではありませんよね。 でもご安心を。筆者はこの問題を解決する方法を編み出しました。まずは、人間の脳の仕組みについて解説しましょう。 脳のコードはバグだらけ 私たち人間の脳を改めて見てみると、まるで1万匹のサルが適当にキーボードを打ってコードを書いたかのように思えます。 脳の性質はイベン
AVFoundation を使い、タッチでフォーカスと露出を決められるカスタムカメラを作る。今日の主題はタッチフォーカス&露出なのでプレビューを表示するだけで撮影(画像の保存)は実装していない。 サンプル まずはサンプルから。起動すると真ん中に四角が表示される。 実装 - プレビュー カメラ入力をプレビュー表示する部分の説明は今回割愛する。この辺りは下記のドキュメントが詳しい。ひと通り読めば簡単に実装できる。 AV Foundation プログラミングガイド もしくは など。後者の本は iOS4 となっているが iOS5 でも十分に役立つ情報が掲載されている。おすすめの本。 実装 - フォーカスと露出 任意の点にフォーカスと露出をあわせるプロパティが用意されている。 AVCaptureDevice.h @property(nonatomic) CGPoint focusPointOfInt
こんにちは。mixiのiPhone版公式クライアントアプリを開発している七尾です。 私たちが開発しているmixiのiPhone版公式クライアントアプリは「つぶやき」や、「日記」、「フォト」、「チェックイン」などさまざまなサービスに対応しており、今後もどんどん機能を追加していく予定です。 今月リリースされたVer9.0ではプッシュ通知にも対応し、感慨もひとしおなのですが、実は同じくVer9.0では、写真の同時複数選択にも対応しており、目立たない機能の割に実装が大変だったので(笑)、新機能のご紹介がてら、実装で利用したAssetsLibraryフレームワーク周りで苦労した話や注意点などを書いておこうと思います。 AssetsLibraryはiPhone/iPadに保存された動画や写真に自由にアクセスする為の仕組みです。従来の標準で用意されているイメージピッカーだと、一枚しか選択できないのですが
Flickr APIを使って、写真のGPS情報を取得するには「flickr.photos.getExif」APIを使います。 <rsp stat="ok"> <photo id="12499156243" secret="170c8d62c6" server="7419" farm="8" camera="Apple iPhone 5s"> <exif tagspace="IFD0" tagspaceid="0" tag="Make" label="Make"> <raw>Apple</raw> </exif> <exif tagspace="IFD0" tagspaceid="0" tag="Model" label="Model"> <raw>iPhone 5s</raw> </exif> <exif tagspace="IFD0" tagspaceid="0" tag="Orient
撮影画像について保存されるメタデータの一つであるExif情報。Mac OS X上では「プレビュー」で従来通り簡単に確認できる。10.9上で確認すると「GPS」情報が独立したタブ内に表示されるようになっている。画像とともにどうぞ: プレビュー上でExif情報を確認する方法 画像を「プレビュー(.app)」で開き、[ツール] → [インスペクタを表示] 詳細情報。左から2番目の「i」タブをクリックするとExif情報が表示される 隣の [GPS] タブをクリックするとGPS情報が表示される Finder上でExif情報を確認する方法(GPS情報は表示されない) プレビューを開かなくても、Finder上で画像ファイルを選択し [ファイル] → [情報を見る] で一部のExif情報が確認できる この画面では、GPS情報等は表示されない [ファイル] → [情報を見る] メニュー表示時に option
Captcha security check hisasann.com is for sale Please prove you're not a robot View Price Processing
Xcode4.3でのAlassetslibraryフレームワークの追加方法について 閲覧ありがとうございます。 最近私は、Xcode4.3でiPhoneアプリの開発を行い始めました。 Alassetslibraryというフレームワークを使いたいのですが、通常のフレームワークの追加方法で検索をしてみても、出てきませんでした。 Alassetslibraryのリファレンスには、iOS4.0以降は使えると書いてあるようなのですが、このフレームワークの追加が出来ません。 いろいろ検索してみても分からなかったので質問してみました。このフレームワークの追加方法を教えてください。 よろしくお願いします。
@interface HogeViewController (){ AVCaptureSession *captureSession; AVCaptureStillImageOutput *imgOut; } @end @implementation HogeViewController -(void)cameStart{ // カメラデバイスの初期化 AVCaptureDevice *captureDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; // 入力の初期化 NSError *error = nil; AVCaptureInput *videoInput = [AVCaptureDeviceInput deviceInputWithDevice:captureDevice error:&
UILabelはiOSアプリ開発において使用頻度の高いUIコンポーネントですが、カユいところに手が届かなかったりします。例えばテキストの一部だけ強調表示したい、色を変えたい、フォントを変えたいといったHTMLのような使い方ができません。 iOS6以上であれば、attributedText というNSAttributedStringオブジェクトをセットできるプロパティを標準で持っているので、そのままでテキストの装飾が可能なのですが、残念ながらiOS5以下では使えません。 OHAttributedLabelとTTTAttributedLabelは、そんなUILabelの機能を拡張するOSSです。 OHAttributedLabel 特長 NSAttributedString をラップして UILabel に持たせたもので、テキストの一部だけフォントや色を変えたり、リンクの付与といった指定が簡単
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く