品川です。最近本格的にBERTを使い始めました。 京大黒橋研が公開している日本語学習済みBERTを試してみようとしてたのですが、Hugging Faceが若干仕様を変更していて少しだけハマったので、使い方を備忘録としてメモしておきます。 準備 学習済みモデルのダウンロード Juman++のインストール pyknp、transformersのpipインストール ベースのコードを修正して動かしてみる おまけ get_sentence_embedding関数内の各変数の表示 BERT modelのforwardの引数と出力の関係 準備 学習済みモデルのダウンロード 下記の黒橋研のサイトから、学習済みモデル(.zip)をダウンロードして解凍します(この時ダウンロードするのはtransformers用のモデルです) BERT日本語Pretrainedモデル - KUROHASHI-CHU-MURAW