タグ

iOS 11に関するopparaのブックマーク (11)

  • [iOS 11][Vision] QR コードを検出する | DevelopersIO

    Vision で QR コードを読み取る 今回は iOS 11 からの新フレームワーク Vision を利用して QR コードを読み取ってみようと思います。 Vision の概要に関しては以下の記事をご覧ください。 [iOS 11] 画像解析フレームワークVisionで顔認識を試した結果 実行動画 QR コードを検出すると画面中央にその内容を表示するアプリを作りました。 どういうわけかプログラムを実行しながらの動画撮影が上手くできませんでした。 画像処理で負荷がかかっているため処理落ちしているのでしょうか? 実際はスムーズに QR コードが検知できているので、その動作を見てみたい場合は以下を参考にアプリを作成してみてください。 サンプルコード ほとんどは以前書いたコードの流用です。 変更点のみを記載します。 private var textLayer: CATextLayer! = nil

    [iOS 11][Vision] QR コードを検出する | DevelopersIO
  • [iOS 11] Xcode 9で“だいぶまとも”に!新機能をまとめてみた | DevelopersIO

    Xcode 9の新機能をご紹介 ついにXcode 9がリリースされました!この記事ではXcode 9で何ができるようになったのか、何が変わったのか個人的に気になった部分をメインにご紹介します。 ※記事中のスライド画像についてはWWDCのものを引用しています。 目次 全体的なパフォーマンス向上 Source Editor リファクタリングがSwiftに対応 & 機能強化 Rename Extract Method Extract Variable issueをワンクリックでFixできるようになった フォントサイズの増減がより簡単になった コードの折りたたみ & 展開 が 良くなった Markdownをサポート 新しいビルドシステム 新しいビルドシステムを使う方法 Group作成時にフォルダを作成 GitHub連携が強化された リポジトリをクローンしてみた Xcode上でブランチを作成し、プッ

    [iOS 11] Xcode 9で“だいぶまとも”に!新機能をまとめてみた | DevelopersIO
  • [iOS 11] Swift 4は前バージョンから何が変わったか比較した | DevelopersIO

    はじめに モバイルアプリサービス部の中安です。 いよいよ、Swiftが3から4へとメジャーアップデートしました。 それに伴って自分もどんなところが変わったのかというところを調べたり、実際コードに書き起こして試したりしてきました。 これからSwift 4に取り組もうかなという方も多いと思いますので、できるだけサンプル例を示しながら、新しい機能や変更点、それらの使いどころや所感をザッと書いていきます。 数値比較 Swiftは型に厳しい言語ではありますが、Swift 4では整数の数値比較については型の厳しさが緩まりました。 例えば、下記のような比較はSwift 3ではすべてコンパイラがエラーで弾いていましたが、Swift 4では通ります。これは整数型のプロトコル周りの関係性などが見直されたことに起因するそうです。 let intValue: Int = 100 let int32Value: I

    [iOS 11] Swift 4は前バージョンから何が変わったか比較した | DevelopersIO
  • [iOS 11][小ネタ] iPhone だけで画面の録画ができるようになりました | DevelopersIO

    コントロールセンターから画面収録 iOS 11 では 画面収録 という機能が追加されました。 これを利用すれば iPhone 単体で画面の録画ができます。 コントロールセンターへの追加 こちらも新機能ですが、iOS 11 ではコントロールセンターをカスタマイズできます。 画面収録はコントロールセンターで実行する機能なので、まずは 画面収録 のコントロールを追加しましょう。 設定 アプリを開き コントロールセンター をタップします。 コントロールをカスタマイズ をタップします。 この画面でコントロールセンターを整理できます。 下にスクロールし 画面収録 の + ボタンをタップします。 コントロールセンターに画面収録が追加されました。 コントロールセンターは画面下部を上にスワイプすることで表示されます。 実行動画 コントロールセンターで 画面収録 ボタンをタップすることで 3 秒のカウントダウ

    [iOS 11][小ネタ] iPhone だけで画面の録画ができるようになりました | DevelopersIO
  • [iOS 11][Xcode 9][新機能] UITableViewのSelf-Sizingがデフォルトになりました | DevelopersIO

    UITableViewのSelf-Sizingがデフォルトになった Xcode 9(iOS 11 SDK)でUITableViewのSelf-Sizing(Auto Layoutによる高さの自動調整)がデフォルトになりました。 これまではセルの高さをSelf-Sizingにしたい場合は以下のようなコードを書く必要がありました。 参考:自律的に寸法を調整するテーブルビューのセルの活用 tableView.estimatedRowHeight = 85.0 tableView.rowHeight = UITableViewAutomaticDimension Xcode 9ではSelf-Sizingがデフォルトになったので上記のコードを書く必要がなくなりました。 検証環境 記事は以下の環境で検証を行っています。 macOS Sierra バージョン 10.12.6 Xcode Version

    [iOS 11][Xcode 9][新機能] UITableViewのSelf-Sizingがデフォルトになりました | DevelopersIO
  • [iOS 11] Core MLで焼き鳥を機械学習させてみた

    Core ML Core MLは、学習モデル等をiOS / macOS上で利用する際に、開発者が専門的な知識を必要とせずに扱えるように補助するフレームワークです。WWDC2017で発表された際は、ARKitに並んで現地で反響の大きかった発表でした。 iOSでは、Core ML発表以前から機械学習を取り入れようとはしていました。ただ、そのためにはCIImageを利用した画像処理や、学習モデルへの入出力などのコーディングといった専門的な知識が必要でした。 Core MLの登場で学習モデルを確保できれば、以下の機能を使ってiOS / macOSアプリで機械学習しやすくなります。 学習モデルをiOS / macOSアプリで扱える形式に変換する(Core ML model) Core ML modelへの入力と出力を補助するフレームワーク アプリ内に組み込み、学習結果を受け取ることに特化したCore

    [iOS 11] Core MLで焼き鳥を機械学習させてみた
  • [iOS 11][ARKit] 距離の計測について #WWDC2017 | DevelopersIO

    1 はじめに iOS 11で追加されたARKitを利用した、AR巻尺の距離測定アプリ「AR Measure」がYoutubeに公開されています。 今回は、このようなアプリを作る方法について確認してみました。 記事は Apple からベータ版として公開されているドキュメントを情報源としています。 そのため、正式版と異なる情報になる可能性があります。ご留意の上、お読みください。 2 現実世界の座標取得 下の写真は、クラスメソッド札幌オフィスのエントランスですが、スマフォののカメラで覗いて、画面上でタッチすると、そのポイントは、現実の世界では、赤い点を指していることになります。 ARKitを使用すると、カメラ画像に写っているスマフォ上の位置を指定すると、それに対応する現実世界の位置情報が取得できます。 この機能を利用すると、画面上で地点を指定し、その距離を計算することが可能になるということです

    [iOS 11][ARKit] 距離の計測について #WWDC2017 | DevelopersIO
  • [iOS 11] CoreMLで画像の識別を試してみました(Vision.Frameworkを使わないパターン) #WWDC2017 | DevelopersIO

    [iOS 11] CoreMLで画像の識別を試してみました(Vision.Frameworkを使わないパターン) #WWDC2017 1 はじめに 前回は、Vision.Frameworkを使用した画像の識別を試してみました。 今回は、Vision.Frameworkが何をラップしているのか、また、直接CoreMLを使用すると何が違うのかを確認するために、同じ画像識別をCoreMLのみ書いてみました。 機械学習のモデル(CoreML用に作成された.mlmodelファイル)は、今回もAppleの開発者ページでダウンロードに可能なっている下記の5種類を使用させて頂いています。 SqueezeNet Places205-GoogLeNet ResNet50 Inception v3 VGG16 記事は Apple からベータ版として公開されているドキュメントを情報源としています。 そのため

    [iOS 11] CoreMLで画像の識別を試してみました(Vision.Frameworkを使わないパターン) #WWDC2017 | DevelopersIO
  • [iOS 11] Apple Music APIにアクセスするために必要な作業について #WWDC17 | DevelopersIO

    はじめに こんばんは。モバイルアプリサービス部の平屋です。 記事では、Apple Music APIにアクセスするために必要な作業を紹介します。 Apple Music APIは、Apple Musicに関する各種情報の取得などを行うためのWeb APIです。WWDC 17で紹介されたMusicKitを構成する要素の1つでもあります。 [iOS 11] Apple Musicとの連携を行うための「MusicKit」について #WWDC17 記事は Apple からベータ版として公開されているドキュメントを情報源としています。 そのため、正式版と異なる情報になる可能性があります。ご留意の上、お読みください。 検証環境 Mac macOS Sierra 10.12.5 Xcode Version 9.0 beta 2 (9M137d) Python 2.7.13 pip 9.0.1 iPh

    [iOS 11] Apple Music APIにアクセスするために必要な作業について #WWDC17 | DevelopersIO
  • [iOS 11] 初回起動判定などに使える DeviceCheck フレームワークとは #WWDC17 | DevelopersIO

    iOS 11 から DeviceCheck が追加 iOS 11 から DeviceCheck というフレームワークが追加されることが発表されました。その名の通りデバイスをチェックするフレームワークで、デバイス〜開発者間のデータをサーバーサイドのビジネスロジックで利用できるといった機能を提供します。具体的にどういった機能なのか調べてみました。 記事は Apple からベータ版として公開されているドキュメントを情報源としています。 そのため、正式版と異なる情報になる可能性があります。ご留意の上、お読みください。 DeviceCheck でできること 簡単にまとめると、デバイスごとにトークンを生成し、そのトークンを使ってデバイスごとのフラグ(2つまで)を保持することができます。例えば「アプリの初回起動時のみプレゼント」を実現するための初回起動判定用フラグなどに活用できます。 デバイス用の A

    [iOS 11] 初回起動判定などに使える DeviceCheck フレームワークとは #WWDC17 | DevelopersIO
  • [iOS 11] Apple Musicとの連携を行うための「MusicKit」について #WWDC17 | DevelopersIO

    はじめに こんにちは。モバイルアプリサービス部の平屋です。 WWDC17のKeynoteやPlatforms State of the Unionで紹介されていたMusicKitの概要を調べてみましたので紹介します。 MusicKit MusicKitを使用すると、以下のような処理を実行できます。 アプリやゲームからApple Musicまたはローカルの音楽ライブラリの曲を再生する Apple Musicの曲をライブラリに追加する Apple Musicのメンバーではないユーザーに対し、Apple Musicのトライアルへ誘導する MusicKitを構成する要素 MusicKitの実体は、Media PlayerおよびStoreKitフレームワーク、Apple Music APIのようです。 MediaPlayer iOS 2.0から存在するフレームワークです。アプリ内で曲、ポッドキャスト

    [iOS 11] Apple Musicとの連携を行うための「MusicKit」について #WWDC17 | DevelopersIO
  • 1