並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 1 件 / 1件

新着順 人気順

top-kの検索結果1 - 1 件 / 1件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

top-kに関するエントリは1件あります。 人気エントリには 『テキスト生成における decoding テクニック: Greedy search, Beam search, Top-K, Top-p』があります。
  • テキスト生成における decoding テクニック: Greedy search, Beam search, Top-K, Top-p

    Transformer ベースの言語モデルが普及しているのは承知の通りだと思います。 中でも有名なのは BERT で、これは Transformer の Encoder のみを使う Autoencoding models と呼ばれるカテゴリのモデルです。入力の一部を隠してそれを復元するというタスクを大量に解かせることで事前学習を行うことになります。それゆえ、このタイプのモデルが最も向いているタスクは Token の分類(固有表現抽出等)や文章の分類など、入力の文章自体に興味がある場合です。 一方、Transformer の Decoder のみを使う Autoregressive models (GPT-2 など) や、 Encoder と Decoder の双方を使う Sequence-to-sequence models (BART や T5 など) は、翻訳や要約などの テキストを出

      テキスト生成における decoding テクニック: Greedy search, Beam search, Top-K, Top-p
    1

    新着記事