タグ

tvmとcompilerに関するxiangzeのブックマーク (5)

  • VTA: An Open, Customizable Deep Learning Acceleration Stack

    VTA: An Open, Customizable Deep Learning Acceleration Stack Jul 12, 2018 Thierry Moreau(VTA architect), Tianqi Chen(TVM stack), Ziheng Jiang†(graph compilation), Luis Vega(cloud deployment) Advisors: Luis Ceze, Carlos Guestrin, Arvind Krishnamurthy Paul G. Allen School of Computer Science & Engineering, University of Washington Hardware acceleration is an enabler for ubiquitous and efficient deep

  • Apache TVM Documentation — tvm 0.18.dev0 documentation

  • TVMで使われている最適化の探索手法 - ぱたへね!

    TVMとは ペーパーはこちらからダウンロードできます。 https://arxiv.org/abs/1802.04799 TVMは、ASICやAPGAの様な組込様CPU等、様々なバックエンドでDeep Learningを動かすことを目的としたコンパイラです。 グラフレベルや演算子レベルの様々な最適化を行います。 興味位でペーパーを読んでみたら、僕の知らない最適化テクニックが使われていたので紹介します。 他にも面白いことは書いてあったのですが、最も気になった2つを紹介します。 TVM stack TVMは図のようなスタック構造になっています。上から順番に最適化をしていって、最後にLLVMやCUDAのソースコードを生成します。High level Graph Rewritingの話(Section 3)や、Tensorとスケジューリングの話(Section 4)で最適化した後、それらの組み合

    TVMで使われている最適化の探索手法 - ぱたへね!
  • tvm_intro.pdf

    前置き • Deep Learning における, 学習済みモデルの推論のみを扱います • 入力として有向グラフと多次元配列 (画像など) が与えられる • ノード: なんらかの演算を表す (畳み込み, 行列積, シンプルな要素ごとの演算 etc) • エッジ: 演算間のデータフローを表す. 多次元配列 (Tensor) が流れていくイメージ GoogleNet, from Going Deeper with Convolutions 計算グラフ ( Computational Graph) 日のテーマ Root から各ノードの演算を実行し, 出力を得る. これをとにかく速くやりたい DL 用途に特化した (広い意味での) 最適化コンパイラ → • 内部でどのような処理をしているかをざっくり紹介 • TVM をどのように使うか, などの説明は最小限 高速化のポイント ・各ノードに対応する

    tvm_intro.pdf
  • 2018/11/10 コンパイラ勉強会に行ってきた - mozyのかきおき

    コンパイラ勉強会とは コンパイラとその関連技術について共有し学ぶ勉強会です。 connpass.com まとめると 自分がまったく知らなかったことがたくさんあったので学びになった。もっと低レイヤーな部分を触っていかないといけないと思った。 そして、勉強会中に出てきた名言の通り、人生で一度くらいはコンパイラをつくらねば。。 Twitterのハッシュタグ#compiler_study で一部実況していたので、詳細はそちらを参照のこと。 始まった#compiler_study— mozy (@ok_mozy) November 10, 2018 ここからは自分用のメモ(ガンガン突っ込んでください。。) LLVM Backendについて LLVM Backend の紹介 from AkiraMaruoka www.slideshare.net LLVM ってLow Level Virtual Ma

    2018/11/10 コンパイラ勉強会に行ってきた - mozyのかきおき
  • 1