エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
OpenAI、まことしやかなフェイクニュースも簡単生成の言語モデル「GPT-2」の限定版をオープンソース化
OpenAI、まことしやかなフェイクニュースも簡単生成の言語モデル「GPT-2」の限定版をオープンソース化 ... OpenAI、まことしやかなフェイクニュースも簡単生成の言語モデル「GPT-2」の限定版をオープンソース化 イーロン・マスク氏が共同会長を務める非営利の米AI(人工知能)研究企業OpenAIは2月14日(現地時間)、自然言語の文章を生成する言語モデル「GPT-2」を発表した。 この技術が悪意あるアプリに流用される懸念から、GPT-2をオープンソース化はせず、縮小版モデルと論文のみ公開した。 GPT-2は、40Gバイト分のネット上のテキストの次の単語を予測するためだけに訓練されたTransformerベースの言語モデル。800万のWebページのデータセットで訓練し、15億のパラメータを持つ。 大きな特徴は、固有の訓練用データセットではなく、Webページのデータセットをそのまま使ったことだ。Wikipediaやニュース、書籍など特定のデータで訓練された他の言語モデル(米GoogleのBERTな
2019/02/18 リンク