エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
現状最大規模を誇る言語モデルdeberta-v2をCommonsenseQA用にファインチューニングして公開してみた - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
現状最大規模を誇る言語モデルdeberta-v2をCommonsenseQA用にファインチューニングして公開してみた - Qiita
こんにちにゃんです。 水色桜(みずいろさくら)です。 今回は現状日本語モデルで最大規模を誇る言語モ... こんにちにゃんです。 水色桜(みずいろさくら)です。 今回は現状日本語モデルで最大規模を誇る言語モデルdeberta-v2-base-japaneseをファインチューニングして、CommonsenseQA(常識を問う選択式の質問)タスクを解いてみようと思います。 作成したモデルはこちらのサイト(Hugging Face)で配布しています。 初心者でも簡単に使えるようにしているのでぜひ使ってみてください。 環境 pandas 1.4.4 numpy 1.23.4 torch 1.12.1 transformer 4.24.0 Python 3.9.13 deberta-v2-base-japaneseとは? 日本語Wikipedeia(3.2GB)および、cc100(85GB)、oscar(54GB)を用いて訓練されたモデルです。京都大学黒橋研究室が公表されました。 データセット 今回、デー