どうも、大阪DI部の大澤です。 汎用言語表現モデルBERTの日本語Wikipediaで事前学習済みのモデルがあったので、BERTモデルを使ったテキストの埋め込みをやってみたいと思います。 BERT日本語Pretrainedモデル - KUROHASHI-KAWAHARA LAB 以下のエントリではbert-as-serviceを使ったテキストの埋め込みを紹介しました。今回はBERTのリポジトリで公開されているextract_features.pyを使って、テキストの埋め込みを試します。 bert-as-serviceを使って日本語の文章を埋め込み表現ベクトルに変換してみる | DevelopersIO BERT(Bidirectional Encoder Representations from Transformers) BERTはGoogleが開発した汎用言語表現モデルです。機械学習で
![BERTの日本語事前学習済みモデルでテキスト埋め込みをやってみる | DevelopersIO](https://cdn-ak-scissors.b.st-hatena.com/image/square/6f1fde3cff7767965729d2d96d3e31da5b8a643d/height=288;version=1;width=512/https%3A%2F%2Fdevio2023-media.developers.io%2Fwp-content%2Fuploads%2F2018%2F11%2Feyecatch_developers.io_1200x630.jpeg)