並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 3 件 / 3件

新着順 人気順

SetFitの検索結果1 - 3 件 / 3件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

SetFitに関するエントリは3件あります。 qiita が関連タグです。 人気エントリには 『SetFit: Efficient Few-Shot Learning Without Prompts』などがあります。
  • SetFit: Efficient Few-Shot Learning Without Prompts

    SetFit is significantly more sample efficient and robust to noise than standard fine-tuning. Few-shot learning with pretrained language models has emerged as a promising solution to every data scientist's nightmare: dealing with data that has few to no labels 😱. Together with our research partners at Intel Labs and the UKP Lab, Hugging Face is excited to introduce SetFit: an efficient framework f

      SetFit: Efficient Few-Shot Learning Without Prompts
    • 実際問題、Few-Shot学習手法SetFitはいつ使うとよいのか? - Qiita

      概要 少量の学習データ(Few-Shot)でも精度が出る深層学習手法が登場してきています。 その一つがSetFitです。テキスト分類向けのFew-Shot学習手法です。 本記事では、SetFitを使うとよい(使わない方がよい)場面を見極めるために、リアルな問題に近い日本語ニュースジャンル分類タスクをお題に、学習データ数を変えながらそこそこ強い日本語T5と戦わせてみます。 忙しい方向けに最初に結論をまとめ、その後にSetFitの使い方の説明を兼ねて実験を再現するためのコードの解説をしていきます。 結論 Livedoor news記事のジャンル分類タスク(9分類タスク)について、クラスあたりのデータ数を2倍ずつ変えながら、SetFitと日本語T5それぞれについて分類精度を計測しました。 結果は下図のとおりです。 なお、クラスあたりのデータ数は全クラスで同一(均衡)になるようにランダムサンプリン

        実際問題、Few-Shot学習手法SetFitはいつ使うとよいのか? - Qiita
      • SetFit による Sentence TransformersのFew-Shotファインチューニングを試す|npaka

        「SetFit」による「Sentence Transformers」のFew-Shotファインチューニングを試したので、まとめました。 1. SetFit「SetFit」は、「Sentence Transformers」をFew-Shotファインチューニングするためのフレームワークです。ラベル付き学習データをほとんど使用せずに、高い精度を実現します。 例えば「Customer Reviews (CR) sentiment dataset」では、1クラス8個の学習データセットのみで、3000個の完全な学習データセットで「RoBERTa Large」をファインチューニングしたものと同等の精度になります。 特徴は、次のとおりです。 ◎ プロンプトは必要なし 少数のラベル付き学習データから埋め込みを直接生成するため、プロンプトは不要です。 ◎ 学習が高速 T0やGPT-3 のような大規模モデルなし

          SetFit による Sentence TransformersのFew-Shotファインチューニングを試す|npaka
        1

        新着記事