タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

CoreMLに関するWatsonのブックマーク (3)

  • 「Core ML Tools実践入門」という本を書きました #技術書典 - その後のその後

    iOS×機械学習といえばCore ML。既製のCore MLモデルを扱うのは非常に簡単なのですが、 TensorFlowやKeras等の機械学習ツールで作成した独自モデルをCore MLモデルに変換したい モデルサイズを小さくしたい 複数サイズの入力をサポートしたい オンデバイスで更新できるようにしたい 等々、つまり 自分でCore MLモデルをつくりたい・カスタマイズしたい場合にはCore ML Tools(coremltools)を使いこなすことが不可欠 です。 が、こんなに重要なツールなのに意外にも情報が少なく、日語情報どころか英語の公式ドキュメントすら全然網羅的ではありません。 というわけで自分で勉強しつつ書いたがこちらです1。 Core ML Toolsの利用方法を実践形式でさまざまなモデルをつくりながら学んでいきます。最初はわずか2行のコードで変換することからはじめてCor

    「Core ML Tools実践入門」という本を書きました #技術書典 - その後のその後
  • iOS 11 SDKの新機能――ARアプリが作れるARKit、機械学習済みのモデルが使えるCore MLを試してみた

    2017年9月19日(米国時間)、iOS 11の正式版がリリースされました。iOS 11では、ユーザー向けだけではなく開発者向けにも多くの面白い機能が追加されています。稿では、そのうちの「ARKit」「Core ML」について、実際にアプリを作りながら紹介します。 ARKitとは ARKitとはAR(Augmented Reality)アプリの開発をサポートしてくれるフレームワークです。 ARとは現実の映像にオブジェクトや情報を重ねる技術で、ゲームや医療、教育など多くの分野で利用されています。 ARKitでは、それらを実現するための、現実の映像へのオブジェクトの重ね合わせ、水平な面の検出、映像内の距離計算などの機能を提供しています。 今回は下記の要件を満たすアプリを作りながらARKitの概要を紹介します。 アプリを立ち上げるとカメラが起動する カメラ越しの床の上に、オブジェクトを配置する

    iOS 11 SDKの新機能――ARアプリが作れるARKit、機械学習済みのモデルが使えるCore MLを試してみた
  • Core ML+Visionを用いた物体認識の最小実装 - Qiita

    iOS 11 より追加される Core ML を使うと、Keras や Caffe や scikit-learn で学習させたモデルをコマンドラインツールで変換でき、それをXcodeにドラッグ&ドロップすれば必要なコードが自動生成される、とのこと。 開発者ドキュメントから見る iOS 11 の新機能 #WWDC17 - Qiita "Vision Framework: Building on Core ML" というWWDC17のセッションに付随する公式サンプルで、Core MLでつくったカスタムモデル+Visionフレームワークで画像の識別(MNISTの手書き数字認識)をやる実装があるのですが、その実装を参考にCore ML+Visionでリアルタイム物体認識を実装してみました。 このキャプチャはiOS 11のものではなく、iOS-10-Samplerのものです。NDAに配慮してこちらを

    Core ML+Visionを用いた物体認識の最小実装 - Qiita
  • 1