Googleは、エッジでの機械学習を促進するデバイス開発を約束してきたが、これを実現する開発ボードとドングルが発売されたようだ。 見た目がRaspberry Piに似た開発ボードには、Googleの機械学習向けチップ、Edge TPUが搭載されており、これと連携して機能するUSBアクセラレーターにも同じくEdge TPUチップが載っている。 また、開発ボードに取り付けるカメラもリリースされていて、この小さなシステムで画像認識が無理なくできるのだろう。 ちなみに、AIモデルの実行に最適化されたこれらの製品群「Coral」は、現段階ではbeta版扱いだ。・TensorFlow Liteが快適に動くエッジ向け機械学習デバイスを発売したのはGoogleが初めてではなく、NvidiaのJetson TX2やIntelのNeural Compute Stickは数年前に発表されている。 また、Cora
https://blog.tensorflow.org/2019/03/build-ai-that-works-offline-with-coral.html https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjOlC-f33SuqziF77XYM-BbXUajKQQpVdNgx3NGZ1xEj4VwnYM-iW9rpXQ9_K6wWPQr4_EYOILJi3ZR7oSDNhkvIqdZPfhvpJkBB6jwplZjH20b4fzes-cVEUnIcRplMpIhj-vRE2e1mJo/s1600/coral.jpeg March 14, 2019 — Posted by Daniel Situnayake (@dansitu), Developer Advocate for TensorFlow Lite. When
Posted by Ian Fischer, Alex Alemi, Joshua V. Dillon, and the TFP Team At the 2019 TensorFlow Developer Summit, we announced TensorFlow Probability (TFP) Layers. In that presentation, we showed how to build a powerful regression model in very few lines of code. Here, we will show how easy it is to make a Variational Autoencoder (VAE) using TFP Layers. TensorFlow Probability LayersTFP Layers provide
While model construction and training are essential steps to building useful machine learning-driven applications, they comprise only a small part of what you need to pay attention to when building machine learning (ML) workflows. To address that need, last week we announced AI Hub and Kubeflow Pipelines—tools designed with not only data scientists, but software and data engineers in mind—that hel
A new and improved version of Machine Learning Crash Course is coming in August 2024. Stay tuned!
https://blog.tensorflow.org/2019/02/effective-tensorflow-20-best-practices.html https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgnG6dJv4-THd3fvrEqLTs6Z75NLfpP9IBjnnNntRLz-VhvfOgbKl_ZBYWOhIzSQiKuIOIRKpBIhXQtsfFTmKu2a8tsvSIIRF6Cl-QkJJR3Rb2QKBFIPzOQgG-zToE7zU1Orn4o-cau7cM/s1600/1_b4otA55Us-hoI57lqUfplA.png February 13, 2019 — Posted by the TensorFlow Team In a recent article, we mentioned
他のDLライブラリを勉強するのが面倒という理由でkerasで実装されていないネットワークを組んではいけないというアンチパターンの話。つまり闇のkerasに対する防衛術の話です。 kerasでゴリゴリ学習コードを書いてはいけない kerasはLSTMが数行で書けたり、vggなどの有名なモデルが揃っている、便利なラッパーとなっていますが、kerasで実装されていない論文のコードを書くことは極力避けましょう keras以外に慣れていなくてもです。 とっととtensorflowかpytorchを勉強してください。 理由 通常のフィードフォワードな分類or回帰のネットワーク(全結合、CNN、autoencoderなど)や既にラッパーが用意されているLSTMは瞬時に実装できますし、パラメータチューニングも簡単なので是非kerasを使いましょう ただし以下のような場合は絶対にkerasを使わないでくださ
I am a staff research scientist at Google DeepMind. I am broadly interested in intelligence under themes like programs and probability. Currently, I lead evaluation for Bard and also work on Gemini. My most notable works are in infrastructure (Mesh TensorFlow, Tensor2Tensor, TensorFlow Probability, Edward), modeling (Image Transformer, Automatic Differentiation Variational Inference), and evaluati
The TensorFlow Distributions library implements a vision of probability theory adapted to the modern deep-learning paradigm of end-to-end differentiable computation. Building on two basic abstractions, it offers flexible building blocks for probabilistic computation. Distributions provide fast, numerically stable methods for generating samples and computing statistics, e.g., log density. Bijectors
https://blog.tensorflow.org/2018/04/introducing-tensorflow-probability.html https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhX85mSTmsde_znL7pMLisH56kBrTKipUlpqAKMUwuHLDAznxSekhwtNNiysIss8_HXS9HeFAaZdISilwH4DqM7zxWMBKMq-vz5jNOHGFZE_0rZJwBgEUSnGYw11g6gnDwAbX9Yx7RrLGc/s1600/tfpoverview.png April 11, 2018 — Posted by Josh Dillon, Software Engineer; Mike Shwe, Product Manager; and Dustin Tra
はじめに TensorFlow2.0がもうすぐ来るよ! APIs High level APIs Eager Exexution Reference Models Contribの扱い プラットフォーム TensorFlow Lite TensorFlow.js TensorFlow with Swift パフォーマンス Distributed TensorFlow CPU、GPU、TPUの最適化関連 その他のパッケージ TensorFlow Probability Tensor2Tensor End to End ML systems TensorFlow Hub TensorFlow Extended はじめに TensorFlow2.0ではこれまでのTensorFlowから大幅に変化するので、その変更点について記しておきます。 基本的には公式のRoadmapの和訳と思って差し支えあり
DAWNBench is a benchmark suite for end-to-end deep learning training and inference. Computation time and cost are critical resources in building deep models, yet many existing benchmarks focus solely on model accuracy. DAWNBench provides a reference set of common deep learning workloads for quantifying training time, training cost, inference latency, and inference cost across different optimizatio
Posted by Kester Tong, David Soergel, and Gus Katsiapis, Software Engineers When applying machine learning to real world datasets, a lot of effort is required to preprocess data into a format suitable for standard machine learning models, such as neural networks. This preprocessing takes a variety of forms, from converting between formats, to tokenizing and stemming text and forming vocabularies,
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く