この記事では、前回の記事で触れたGoogleの自然言語処理モデル「BERT」を用いた感情分析(ネガポジ分析)について、詳細を報告します。 ソース・実行環境 siny氏が公開しているchABSA datasetネガポジ分析器をベースに使用しました。このプログラムは、書籍「つくりながら学ぶ! PyTorchによる発展ディープラーニング」(小川雄太郎・マイナビ出版)に記載のIMDbネガポジ分析器を元にしており、書籍の英語実装を日本語実装に変えたものです。 BERT日本語事前学習モデルは京都大学黒橋研究室のものを、形態素解析器はJuman++を使用しました。学習は特記がなければGoogle Colaboratory上でGPUで実行しました。余談ですが、Juman++はWindows環境へのインストールが大変で、ローカル環境ではUbuntu経由で実行しました。 BERTのミニバッチサイズは32としま