エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
TVMのレファレンスハードウェアVTAについて(概観、インストール編) - xiangze's sparse blog
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
TVMのレファレンスハードウェアVTAについて(概観、インストール編) - xiangze's sparse blog
概要 TVM/VTAの階層構造 VTA(Versatile Tensor Accelerator) 実行環境 Dockerの使用 実行 チュートリア... 概要 TVM/VTAの階層構造 VTA(Versatile Tensor Accelerator) 実行環境 Dockerの使用 実行 チュートリアル 発展的内容 リンク 概要 TVMはニューラルネットアクセラレーターのコンパイル環境、デプロイ環境としてデファクトのようなものであり、pytorch,tensorflow lite,ONNXなどのフォーマットで書かれたニューラルネットをCPU,GPU,その他アクセラレーターで実行でき、ネットワークを機械学習手法を使って最適化ができる点が注目されています。 TVMが実行可能なハードウェアはニューラルアクセラレーターを作っている半導体ベンダーが独自に実装していますが、公開されてる実装情報としてVTA(Versatile Tensor Accelerator)があります。 ここではVTAの概要の紹介とインストール、実行の解説を行います。 TVM/V