エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
sentence transformersで日本語を扱えるモデルのまとめ
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
sentence transformersで日本語を扱えるモデルのまとめ
はじめにSentence Transformersを用いて文章の埋め込みベクトルを作成できます。 Sentence-BERT: Senten... はじめにSentence Transformersを用いて文章の埋め込みベクトルを作成できます。 Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks以下のように応用できます。 文章埋め込みベクトルSemantic Textual Similarityクラスタリング言い換えの探索翻訳文章の探索セマンティック(意味)検索Retrieve & Re-Rank文章要約多言語の画像検索、クラスタリング、重複検出SentenceTransformers では、事前学習モデルがいくつか公開されているのですが、今回はこの中から日本語が扱えるモデルをまとめてみました。 事前学習モデルhttps://www.sbert.net/docs/pretrained_models.html に事前学習モデルが記載されています。このなかの多言語対