記事へのコメント7

    • 注目コメント
    • 新着コメント
    misshiki
    misshiki “日本語に特化した「GPT-2」と「BERT」の事前学習モデル...、開発した事前学習モデルとその学習を再現するためのソースコードを、GitHubおよびNLPモデルライブラリHuggingFaceにMITライセンスのオープンソースとして公開”

    2021/08/27 リンク

    その他
    naggg
    naggg おお!

    2021/08/26 リンク

    その他
    k_oshima
    k_oshima 日本語コーパスは何だろう

    2021/08/26 リンク

    その他
    knok
    knok コーパスは日本語CommonCrawlとWikipediaか

    2021/08/26 リンク

    その他
    mysql8
    mysql8 GPT-3は?

    2021/08/26 リンク

    その他
    aox
    aox 過学習そう ʕ•̫͡•ʕ•̫͡•ʔ•̫͡•ʔ•̫͡•ʕ•̫͡•ʔ•̫͡•ʕ•̫͡•ʕ•̫͡•ʔ•̫͡•ʕ•̫͡•ʕ•̫͡•ʔ

    2021/08/26 リンク

    その他
    kachine
    kachine 「ほかのオープンソースのモデルでは学習データは多くて20ギガバイトほどです。(rinnaによる学習データは)その3倍」英語圏と比較するとUTF8の日本語マルチバイト文字ってだけで概ね3倍になるのでは?

    2021/08/26 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    rinna、日本語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習 | Ledge.ai

    Top > 学術&研究 > rinna、日語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイト...

    ブックマークしたユーザー

    • tyosuke20112023/05/22 tyosuke2011
    • potorisu2021/11/10 potorisu
    • cutc-mt2021/10/21 cutc-mt
    • hippopopark2021/09/07 hippopopark
    • yahihi2021/09/01 yahihi
    • aloha15mahalo2021/09/01 aloha15mahalo
    • erya2021/08/30 erya
    • misshiki2021/08/27 misshiki
    • takuya04112021/08/26 takuya0411
    • endor2021/08/26 endor
    • betabassist2021/08/26 betabassist
    • summer4an2021/08/26 summer4an
    • paul_oguri2021/08/26 paul_oguri
    • l080842021/08/26 l08084
    • naggg2021/08/26 naggg
    • Pole00002021/08/26 Pole0000
    • oilfish2021/08/26 oilfish
    • daitom2021/08/26 daitom
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事