サービストップ
B!で、もっと知る
話題のニュースを みんなの感想と一緒に テクノロジーからマンガまで
Scroll

COMMENTコメントで知る

記事へみんなの感想が集まる

日本語に特化した13億パラメータのGPT言語モデルを...」への感想

  • shunkeen
    shunkeen “2022.01.26”/去年のプレスリリースが掘り返された?GPT-3は1750億パラメータで、ChatGPTは追加で強化学習(RLHF)されているから、それらと比べると性能差はご愛嬌だと思う。けど、色々試す人が出てくると面白そう。 2023/03/07
  • lifefucker
    lifefucker BERTですら30億あったから結構小さめだな 2023/03/07
  • knok
    knok HyperCLOVAは39B https://ainow.ai/2022/01/31/262132/ 増えたコーパスはJapanese C4/ただGPT-3.5みたいにプログラミング言語もコーパスに入れるとまたかなり違うようなのでそういうのも見てみたい 2023/03/07
もっと読む
  • App Storeからダウンロード
  • Google Playで手に入れよう
© Hatena また押してみてね