エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
LaBSE:言語に依存しないBERT仕様のEmbedding(1/2)
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
LaBSE:言語に依存しないBERT仕様のEmbedding(1/2)
1.LaBSE:言語に依存しないBERT仕様のEmbedding(1/2)まとめ ・多言語アプローチは有用ではあるがパフ... 1.LaBSE:言語に依存しないBERT仕様のEmbedding(1/2)まとめ ・多言語アプローチは有用ではあるがパフォーマンスを維持しながら対応言語を増やすのは困難 ・LaBSEは109の言語を使って訓練したBERT仕様で多言語共通なembeddingsを持つモデル ・トレーニングに利用できるデータが存在しない言語にとっても効果的なモデルとなった 2.LaBSEとは? 以下、ai.googleblog.comより「Language-Agnostic BERT Sentence Embedding」の意訳です。元記事の投稿は2020年8月18日、Yinfei YangさんとFangxiaoyu Fengさんによる投稿です。 Google翻訳は1つのモデルで全言語の翻訳を行うアプローチであり、それゆえ、2言語間の翻訳に特化しているモデルには翻訳品質の面で劣ると言う評価もあります。しかし、1