記事へのコメント6

    • 注目コメント
    • 新着コメント
    bohemian916
    bohemian916 情通機構という略し方は初めて見た。NICTでよくない?

    2023/08/21 リンク

    その他
    kuippa
    kuippa パラメーター数多いリソース勝負ではかなわんな。子供の学習を考えるに、新規情報収集→回路追加変更(睡眠)で、少ないパラメーターでイテレーションな気もしなくもない。

    2023/08/21 リンク

    その他
    misshiki
    misshiki “情報通信研究機構(NICT)が1790億パラメーターの大規模言語モデル(LLM)の開発を進めている”

    2023/08/21 リンク

    その他
    shinobue679fbea
    shinobue679fbea これ少ないって思うかもしれないが、日本語ってうまくトークナイズすればトークンあたりの情報量が英語の何倍もあるし、今うまくトークナイズする主流の方法が確立されていないので、このくらいでハマる可能性はある

    2023/08/21 リンク

    その他
    theatrical
    theatrical 1790億とか言うの分かりづらいから、179Bとかって言ってほしい。普通llmのパラメータサイズはB表記じゃん。

    2023/08/21 リンク

    その他
    quwachy
    quwachy 3年遅れ

    2023/08/21 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    1790億パラメーターに挑戦…情通機構「大規模言語モデル」日本語を猛特訓! ニュースイッチ by 日刊工業新聞社

    情報通信研究機構(NICT)が1790億パラメーターの大規模言語モデル(LLM)の開発を進めてい...

    ブックマークしたユーザー

    • mgl2023/08/29 mgl
    • xiangze2023/08/23 xiangze
    • wideangle2023/08/22 wideangle
    • machupicchubeta2023/08/21 machupicchubeta
    • bohemian9162023/08/21 bohemian916
    • NSTanechan2023/08/21 NSTanechan
    • Hohasha2023/08/21 Hohasha
    • kuippa2023/08/21 kuippa
    • shodai2023/08/21 shodai
    • toshikish2023/08/21 toshikish
    • misshiki2023/08/21 misshiki
    • shinobue679fbea2023/08/21 shinobue679fbea
    • theatrical2023/08/21 theatrical
    • quwachy2023/08/21 quwachy
    • lifefucker2023/08/21 lifefucker
    • kybernetes2023/08/21 kybernetes
    • kerotan072023/08/21 kerotan07
    • SonNa_BaNaNa2023/08/21 SonNa_BaNaNa
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事