エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Huggingface Transformers 入門 (2) - モデル|npaka
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Huggingface Transformers 入門 (2) - モデル|npaka
1. モデルのカテゴリ「Huggingface Transformers」のモデルは、下のカテゴリに分類されます。 ・自己回... 1. モデルのカテゴリ「Huggingface Transformers」のモデルは、下のカテゴリに分類されます。 ・自己回帰モデル (Autoregressive models) ・オートエンコーディングモデル (Autoencoding models) ・Sequence-to-sequenceモデル (Sequence-to-sequence models) ・マルチモーダルモデル (Multimodal models) ・検索ベースモデル (Retrieval-based models)2. 自己回帰モデル 「自己回帰モデル」は、古典的な「言語モデル」で事前学習します。一連のトークンに続くトークンを予測します。このモデルはオリジナルのTransformerモデルのデコーダに相当します。文全体にマスクが使用されているので、アテンションヘッドは、次の文の前を見ることができ、次の文の後は