タグ

ブックマーク / shu223.hatenablog.com (6)

  • iOS 12のPortrait Matteがすごい/ #iOSDC 2018で登壇します - その後のその後

    iOS 12の新機能"Portrait Matte"(ポートレート・マット)の概要と、実装方法を紹介します。1 深度マップとセグメンテーション 昨今のiPhoneではデュアルカメラ(iPhone 7Plus, 8 Plus, Xの背面に搭載)、あるいはTrueDepthカメラ(iPhone Xの前面に搭載)から深度マップを作成し、奥行きを知ることができるようになっています。 深度マップは、 AR表現における回り込み(オクルージョン) モノや人物の背景を差し替える 2 といった用途に用いられます。 どちらの例も要は人物やモノの「領域」を検出して分割する(セグメンテーション)ところがキーで、深度マップはそのセグメンテーションにおけるマスクとして有用なわけです。 (撮影した画像(左)と深度マップ(右)) iOS 12の新機能 "Portrait Matte" 深度マップ関連APIはiOS 11か

    iOS 12のPortrait Matteがすごい/ #iOSDC 2018で登壇します - その後のその後
  • iOS / OpenCV 3.0 で画像の特徴点を検出する(AKAZE, SIFT, SURF, ORB) - その後のその後

    局所特徴量とは / SIFT, SURF 特徴量 このスライドが超わかりやすかったです。 画像認識の初歩、SIFT,SURF特徴量 from takaya imai で、SIFT (Scale-invariant feature transform)、SURF (Speed-Upped Robust Feature) というのは、拡大縮小・回転・照明変化に強いロバストな特徴量、としてよく知られているようです。 SURF の方が軽量で、その代わり認識精度は SIFT の方が良い、とのこと。 特徴量の用途 複数写真からのパノラマ写真合成 (上に載せたスライドより) AR のマーカー認識 下記画像はARのマーカー認識とは違いますが、そういう使い方ができそうだ、ということは汲んでいただけるかと。。 (http://docs.opencv.org/3.0-rc1/d7/dff/tutorial_fe

    iOS / OpenCV 3.0 で画像の特徴点を検出する(AKAZE, SIFT, SURF, ORB) - その後のその後
  • 【iOS8】App Extension の実装方法 その1:Action - その後のその後

    App Extension とは? App Extension (Extensions) は、iOS 8 から導入される、新しいアプリ間連携のしくみです。 iOS では、以下の 6種類の Extension point *1を利用することができます。 Today Share Action Photo Editing Storage Provider Custom keyboard 大まかな仕組みは同じなのですが、見た目/機能は Extension point によって色々と違いがあり、実装方法も違ってくる(部分もある)ので、個別に説明していきたいと思います。 まずは一番説明しやすい "Action" から。 1. ターゲットを作成する Xcode の [File] > [New] > [Target] から、[Application Extension] > [Action Extensi

    【iOS8】App Extension の実装方法 その1:Action - その後のその後
  • Xcodeの「全機能」を網羅した全752ページの超大作『Xcode 5 徹底解説』書評 - その後のその後

    先日 yidev 恵比寿勉強会 に行った際、隣の席にいらっしゃった @es_kumagai さんより、すごいプレゼントをいただきました。 このを手に取ってまず驚くのが、その 752ページ(!!!!) という超特大ボリュームです。世の中に「徹底解説」を謳う解説は数あれど、 当に「全機能」を網羅している は初めてみたかもしれません。 (iPhone5sとの比較。分厚さが伝わりますでしょうか) 対象読者:入門者から上級者まで! 目次を見てみると、「Xcode とは」「Xcode をインストールする」から始まるので、Xcodeを未ダウンロードな入門者 から読めますし、「xcodebuild コマンドを使ってビルドする」「ユニットテストを実現する XCTest」「Xcode サーバーと Bot でテストを自動化する」といった 中級者向け の内容もがっつり解説されています。 また、Xcode

    Xcodeの「全機能」を網羅した全752ページの超大作『Xcode 5 徹底解説』書評 - その後のその後
  • UIKit上でパーティクルエフェクトを表示する - その後のその後

    iOS5より、Core Animationでパーティクルシステムがサポートされ、UIKitで実装されたUI上でパーティクル表現を簡単に行えるようになりました。 ここでは CAEmitterLayer と CAEmmiterCell を用いたパーティクルエフェクトの基的な実装方法を説明し、入れ子にして花火のような段階的なエフェクトを実現する方法や、動的にパラメータを変更する方法を紹介します。 基的な実装方法 1. パーティクル画像をプロジェクトに追加する パーティクルシステムは、1つの画像を大量に描画することで多様な表現を行うものなので、その素となる画像が必要になります。ここでは、わかりやすいように次のようなシンプルな円形のpng画像を使います。 (※視認しやすいよう背景を黒にして載せています) プロパティから色を変えられるので、白ベースの画像を用いることが多いですが、あらかじめ着色した

  • 家電を自由に操作するiOSアプリがつくれる『IRKit』 - その後のその後

    カヤック時代の恩師 maaash 氏 *1 が、IRKitという新デバイスを個人で開発(!)して、日よりAmazonで販売を開始しました。 IRKitposted with amazlet at 14.01.14maaash.jp Amazon.co.jpで詳細を見る このIRKitをつかうと、家電を操作するiOSアプリを好きなようにつくることができます。つまり、自分好みのリモコンアプリをつくれます。 対応している家電は・・・という制約はとくになくて、普通のリモコン(赤外線リモコン)で操作できるものなら何でもOKです。 しくみ IRKit(デバイス)が赤外線信号を送る機能を持っていて、IRKit SDK(を組み込んだアプリ)から「どういう信号を送るか」を制御する、という感じです。ざっくり。 学習リモコンやPlutoやiRemoconとどう違うの? 学習リモコンは、もともとあるリモコンの赤

    家電を自由に操作するiOSアプリがつくれる『IRKit』 - その後のその後
  • 1