エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
NHK、40年分の放送局データを用いた大規模言語モデルを開発。大量の情報収集・翻訳・校正などを支援 - PHILE WEB
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
NHK、40年分の放送局データを用いた大規模言語モデルを開発。大量の情報収集・翻訳・校正などを支援 - PHILE WEB
HOME > ニュース > NHK、40年分の放送局データを用いた大規模言語モデルを開発。大量の情報収集・翻訳・... HOME > ニュース > NHK、40年分の放送局データを用いた大規模言語モデルを開発。大量の情報収集・翻訳・校正などを支援 NHK放送技術研究所は、NHKが放送したニュースなどの放送局データを用いた大規模言語モデル(LLM)を、2026年までの実用化を目指して開発を進めていくと発表した。 大規模言語モデル(以下、LLM)とは、大量のテキストデータを学習することで、あるテキストを入力すると、それに続くテキストを予測して出力する、自然言語処理に特化した生成AIの一種。とくに放送局業務おいては、翻訳、要約、文章校正、プログラム作成など、幅広い応用が可能となる。一方、利用上の課題としてLLMが事実と異なる回答をしてしまう点が指摘されていた。 そこでNHK放送技術研究所は、既存のLLMをベースに、過去にNHKが放送した約40年分のニュース原稿やニュース記事、番組字幕などの放送局データ(約2000