記事へのコメント3

    • 注目コメント
    • 新着コメント
    misshiki
    チュートリアル。日本語使用。

    その他
    UDONCHAN
    面白い

    その他
    sh19910711
    "BERT2BERT: Encoder層もDecoder層もBERTのアーキテクチャーを採用したモデル / 正直生成文章はとてもイマイチな結果 > データ量が少ない + 学習の仕方ももう少し工夫が必要なのかも / GPT-2のほうが日本語が流暢だった"

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    BERT2BERTによるニュース記事のタイトル生成 - Qiita

    はじめに huggingfaceを使ったEncoder-Decoderモデルの練習の一貫として、BERT2BERTによる文章生成をや...

    ブックマークしたユーザー

    • miguchi2022/04/30 miguchi
    • misshiki2022/04/27 misshiki
    • akishin9992022/04/27 akishin999
    • solidjem2022/04/26 solidjem
    • yuiseki2022/04/26 yuiseki
    • Hiro_Matsuno2022/04/26 Hiro_Matsuno
    • nukosan5552022/04/26 nukosan555
    • yamada_k2022/04/26 yamada_k
    • dhesusan46492022/04/25 dhesusan4649
    • toshikish2022/04/25 toshikish
    • UDONCHAN2022/04/25 UDONCHAN
    • yag_ays2022/04/25 yag_ays
    • gengohouse2022/04/25 gengohouse
    • sh199107112022/04/25 sh19910711
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む