タグ

tensorflowとiosに関するkasahiのブックマーク (6)

  • TensorFlow iOS カメラサンプルで自作した画像分類器を動かす - Qiita

    TensorFlow で自作した画像分類器モデルを TensorFlow iOS で動かします。 大抵の記事では分類器モデルの作成までは説明されているのですが(Mac や Ubuntu で動かすにはそれで十分)、iOS カメラサンプルで使われている pb(protocol buffers) ファイルの作成の部分まで触れているものがなかったのでその部分を説明しようかと思います。 ちなみに僕はこの方法で作成した pb ファイルを使って「B'z 分類器を作って iOS で動かす」というのをやってみました。 B'z 分類器つくって iOS で動かしてみました。 #TensorFlow pic.twitter.com/Iq9Y4lcyNM — シン・キョンホン (@keonheon) 2017年2月1日 環境 Python 2.7 TensorFlow 1.0 やること 学習済みの ckpt から

    TensorFlow iOS カメラサンプルで自作した画像分類器を動かす - Qiita
  • TensorFlow for iOS のモデルについて - Qiita

    以前、『TensorFlowの学習済みモデルを拾ってきてiOSで利用する』という記事を書いたのですが、そのとき用いたモデルデータはいずれも Protocol Buffers 形式でした。 (YOLOモデルでリアルタイム一般物体認識) Protocol Buffersはプラットフォーム等を問わない汎用的なフォーマットですが、上の記事を書いたときにわからなかったのが、.pbでエクスポートされたTensorFlow用のモデルでも、iOSで使えるものと使えないものの違いはあるのかないのか、あるとしたら何なのか(単にサイズや使用メモリ量とかが制限になってくるのか)、という点です。 理解の手がかりになるかわかりませんが、TensorFlowのiOSサンプルがどうやってモデルデータを読み込んでいるか、コードをちょっとだけ追ってみます。 なお、今回利用するサンプルはsimpleです。 .pbファイル読み込

    TensorFlow for iOS のモデルについて - Qiita
  • TensorFlowのiOSサンプルの実行手順(2017年7月現在) - Qiita

    【注意】記事のサンプルは公開終了になっていました。(TensorFlow Liteに移行したようです。) TensorFlowのiOSサンプルの実行手順について、すでにいろいろ情報は出ていますが、最新版では少し異なる箇所があったので、覚書としてまとめておきました。 はじめに 以下の環境で作業を行いました。 macOS 10.12.5 Xcode 8.3.3 TensorFlow Release 1.2.1 (2017/7/1 現在) 実は、今回行う手順は、以下のREADME.mdにまとまっています。 https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/makefile ただし、古い記述もありました。 (「tensorflow/contrib/ios_examples」から「tensorflow/e

    TensorFlowのiOSサンプルの実行手順(2017年7月現在) - Qiita
  • TensorFlowをiOSプロジェクトに導入する手順をやさしく解説する

    TensorFlowは、Googleが公開しているモバイルや、サーバなどデバイスを問わずどんな環境でもディープラーニングを動作させることができるライブラリです。 iOSアプリで識別することも、バージョン0.9.0からサポートされました。 記事では、TensorFlowやiPhoneアプリ開発にそれほど馴染みのない方でも簡単にXcodeプロジェクトからTensorFlowのモデルを実行できるようになるまでを解説します。 TensorFlowをiOSで動作させるために必要なもの TensorFlowをiOSプロジェクトで動作するには、以下のライブラリやソフトウェアが必要になります。 Xcode7.3以上 XcodeのCommand Line Tools automake, libtool Xcodeは、iTunesストアからダウンロードしてください。 また、XcodeのCommand Lin

    TensorFlowをiOSプロジェクトに導入する手順をやさしく解説する
  • TensorFlow & TensorSwiftを使ったiOSアプリの試作 - Qiita

    TensorFlowのチュートリアルであるDeep MNIST for Expertsを少しだけ修正して、顔写真の多クラス分類をするiOSアプリを試作してみたのでメモとして残します。 TensorFlowはiOSでも使用することができますが、ライブラリのビルドから行う必要がありますし、Objective C++で開発することになるため少々面倒です。そこで、TensorFlowの学習済みモデルをSwiftで使うことのできるTensorSwiftを使用してみました。開発にあたってはこちらの投稿を参考にさせていただきました。 (【追記】iOS側でもTensorFlowを使う場合の開発手順をこちらに書きました) 開発手順 1. データセットの用意 2. TensorFlowで学習させる 3. 学習済みのデータ(変数)をTensorSwift用のファイルに書き出す 4. TensorSwiftを使っ

    TensorFlow & TensorSwiftを使ったiOSアプリの試作 - Qiita
  • TensorFlowで学習したモデルを使ってiOS/Swiftで実行する - Qiita

    最近 Qoncept では TensorFlow を使った案件が続いており、その中で TensorFlow を iOS 上で使いたいことがありました。 ぱっと浮かんだ選択肢は次の二つでした。 TensorFlow を iOS 用にビルドして C++APISwift から叩く 学習は TensorFlow / Python で行って、テンソルの計算だけを iOS / Swift でシミュレーションする しかし、前者ついては、まだ TensorFlow を iOS 用にビルドできなさそうでしたしできるようになりました(コメント参照)、たとえできたとしても C++APISwift から叩くのは辛そうです。 TensorFlow がありがたいのは学習時の自動微分等の機能であって、学習済みのモデルを利用するときはただテンソルの計算をしてるだけです。別に学習を iOS 上でやり

    TensorFlowで学習したモデルを使ってiOS/Swiftで実行する - Qiita
  • 1