Deploy ML on mobile, microcontrollers and other edge devices
Googleから発表された機械学習のためのJavaScriptライブラリのdeeplearn.jsを眺めてみたので、纏めておきます。 オフィシャルを舐めて、どういうものか、これからどんな感じになっていくか(いってほしいか)をダラっとタレます。 注意 眺めたのはv0.1.0なので、内容が今後大幅に変更になる可能性があります(というかある)。 触った環境 MacBook Pro (Retina, 15-inch, Mid 2015) - プロセッサ: 2.5GHz Intel Core i7 - メモリ: 16GB 1600 MHz DDR3 - グラフィックス: AMD Radeon R9 M370X 2048 MB Chrome 60.0.3112.101 (Official Build) (64ビット) deeplearn.js v0.1.0 Exampleを眺める 何ができるかを眺める
Google、単一の画像内で複数のオブジェクトを検出するTensorFlow向け機械学習フレームワーク「TensorFlow Object Detection API」をGitHubにて公開 2017-06-16 Googleは、単一の画像内で複数のオブジェクトを検出するTensorFlow上に構築されたオープンソースの機械学習フレームワーク「TensorFlow Object Detection API」をGitHubにて公開しました。 本システムは、コンピュータビジョンでの活用を想定しており、画像内のオブジェクトを検出、トレーニングおよびデプロイを容易にします。 GitHubページはこちら。 関連 Google、機械学習をスマートフォンだけで処理する低遅延、低電力の画像認識技術におけるコンピュータビジョンモデル「MobileNets」をGitHubにて公開 | Seamless
https://78b88514d287ef16c8a41cdbf4.doorkeeper.jp/events/43887
最近 Qoncept では TensorFlow を使った案件が続いており、その中で TensorFlow を iOS 上で使いたいことがありました。 ぱっと浮かんだ選択肢は次の二つでした。 TensorFlow を iOS 用にビルドして C++ の API を Swift から叩く 学習は TensorFlow / Python で行って、テンソルの計算だけを iOS / Swift でシミュレーションする しかし、前者ついては、まだ TensorFlow を iOS 用にビルドできなさそうでしたしできるようになりました(コメント参照)、たとえできたとしても C++ の API を Swift から叩くのは辛そうです。 TensorFlow がありがたいのは学習時の自動微分等の機能であって、学習済みのモデルを利用するときはただテンソルの計算をしてるだけです。別に学習を iOS 上でやり
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く