
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント2件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
化学の専門知識を学んだLLM開発、東工大が見出したこと ニュースイッチ by 日刊工業新聞社
東京工業大学の畠山歓助教と早川晃鏡教授らは、化学の専門知識を学んだ大規模言語モデル(LLM)を開... 東京工業大学の畠山歓助教と早川晃鏡教授らは、化学の専門知識を学んだ大規模言語モデル(LLM)を開発した。6万5000報の論文データセットを構築した。学習データでは、論文の要約よりもイントロダクションが性能向上に役立った。論文の結論の学習は、性能面でネガティブに働いた。小さなLLMにとっては結論の内容が専門的過ぎた可能性がある。専門知識を備えたLLMを構築するための知見になる。 米メタが公開しているLLM「Llama2」に化学論文を追加学習させた。モデルのパラメーター数は70億―700億。低ランク適応(LoRA)という手法で計算コストを抑えた。研究室で始めやすい構成になる。 モデルの性能は論文を元に作成した問題で評価した。模範解答とLLMの回答の類似度を計る。すると異分野の論文を学習させるほど性能が落ちた。利用したい専門領域に絞ってデータ量を確保する必要がある。 論文は要約とイントロ、結論を
2024/03/05 リンク