サクサク読めて、アプリ限定の機能も多数!
知識蒸留(KD)の主な目標は、教師ネットワークから学習したモデルの情報を学生ネットワークにカプセル化することです。学生ネットワークは前者よりもコンパクトです。蒸留にKullback-Leibler分岐
arxiv_reader のブックマーク 2020/12/17 12:19
ワッサーシュタイン対照表現蒸留[arXiv reaDer][contrastive learning][knowledge distillation][compression][classification][arXiv][representation]知識蒸留(KD)の主な目標は、教師ネットワークから学習したモデルの情報を学生ネットワークにカプセル化することです。学生ネットワークは前者よりもコンパクトです。蒸留にKullback-Leibler分岐2020/12/17 12:19
このブックマークにはスターがありません。 最初のスターをつけてみよう!
arxiv-check-250201.firebaseapp.com2020/12/17
1 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /
知識蒸留(KD)の主な目標は、教師ネットワークから学習したモデルの情報を学生ネットワークにカプセル化することです。学生ネットワークは前者よりもコンパクトです。蒸留にKullback-Leibler分岐
arxiv_reader のブックマーク 2020/12/17 12:19
このブックマークにはスターがありません。
最初のスターをつけてみよう!
ワッサーシュタイン対照表現蒸留
arxiv-check-250201.firebaseapp.com2020/12/17
1 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /