エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
日本語の大規模言語モデル作成PJを引き継いでくれる方を探しています - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
日本語の大規模言語モデル作成PJを引き継いでくれる方を探しています - Qiita
AIによる自然言語処理では、Transformerという種類のモデルが使用されます。 「GPT-3」等のAIが、掲示板... AIによる自然言語処理では、Transformerという種類のモデルが使用されます。 「GPT-3」等のAIが、掲示板でAIと気づかれないまま人間と対話していた、などのニュースを聞いた方もいるかと思います。 GPT-3の登場以降、世界的にはTransformerモデルのパラメーター数競争が始まっており、数千億パラメーターのモデルを事前学習して公開する事が、当たり前のように行われるようになりました。 代表的な超大規模Transformerモデルとしては、 「GPT-3」(英語、1780億パラメーター) 「悟道2.0」(中国語、1兆6000億パラメーター) 「Megatron-LM」(英語、1兆パラメーター) 「HyperCLOVA」(韓国語、2400億パラメーター) 「PanGu-α」(中国語、2000億パラメーター) 「Jurassic-1」(英語、1780億パラメーター 等があります。