2022/04/21 追記 本モデルのスピンオフ的な、トークナイザーを差し替えたものを新たに公開したのでお好みでどうぞ 本題 どうもこんばんは。 今回は掲題の通り、日本語事前学習済みALBERTモデルを公開したので、その過程やらなにやらを紹介します。(ほぼポエム) albert-base-japanese-v1 こちらがそのモデルです。 よければ使ってみてください。 ここから先はわりとどうでもいい話です。 ALBERTって? 詳しい話は論文なり解説記事なり読んでください。 大切なのはこれが「A Lite BERT」のことで、すごく雑に言えば「軽量化されたBERT」ということです。 なぜ事前学習済みモデルを作ったのか 結局のところ「自分がちょうど欲しいくらいの事前学習済みモデルがなかった」から作ったというDIY精神にほかなりません。 今回だと前提として「BERTはいいけどモデルサイズが大きく
![日本語事前学習済みALBERTモデルを公開します](https://cdn-ak-scissors.b.st-hatena.com/image/square/55a2d408d0be6f0880f4dae57988f1f4e5b30669/height=288;version=1;width=512/https%3A%2F%2Fres.cloudinary.com%2Fzenn%2Fimage%2Fupload%2Fs--YRASjZyn--%2Fc_fit%252Cg_north_west%252Cl_text%3Anotosansjp-medium.otf_55%3A%2525E6%252597%2525A5%2525E6%25259C%2525AC%2525E8%2525AA%25259E%2525E4%2525BA%25258B%2525E5%252589%25258D%2525E5%2525AD%2525A6%2525E7%2525BF%252592%2525E6%2525B8%252588%2525E3%252581%2525BFALBERT%2525E3%252583%2525A2%2525E3%252583%252587%2525E3%252583%2525AB%2525E3%252582%252592%2525E5%252585%2525AC%2525E9%252596%25258B%2525E3%252581%252597%2525E3%252581%2525BE%2525E3%252581%252599%252Cw_1010%252Cx_90%252Cy_100%2Fg_south_west%252Cl_text%3Anotosansjp-medium.otf_37%3Aken%252Cx_203%252Cy_121%2Fg_south_west%252Ch_90%252Cl_fetch%3AaHR0cHM6Ly9zdG9yYWdlLmdvb2dsZWFwaXMuY29tL3plbm4tdXNlci11cGxvYWQvYXZhdGFyLzIwOGIxNmM1ZTguanBlZw%3D%3D%252Cr_max%252Cw_90%252Cx_87%252Cy_95%2Fv1627283836%2Fdefault%2Fog-base-w1200-v2.png)