記事へのコメント2

    • 注目コメント
    • 新着コメント
    misshiki
    BERTの転移学習では重みを固定しようとのこと。“一つの解決方法として、DistilBERTのような縮小版のモデル。”

    その他
    knok
    dev/testによるチューニングが重要になってきそう。過学習しないように

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    BERTなどの大規模のモデルの課題 - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure y...

    ブックマークしたユーザー

    • techtech05212024/03/23 techtech0521
    • oguri02202020/04/12 oguri0220
    • dshimizu2020/03/03 dshimizu
    • pack95252020/02/27 pack9525
    • ayaniimi2132020/02/27 ayaniimi213
    • machupicchubeta2020/02/27 machupicchubeta
    • isawo812020/02/27 isawo81
    • tkos-rg2020/02/26 tkos-rg
    • mstk_knife2020/02/26 mstk_knife
    • sakito09022020/02/26 sakito0902
    • Hiro_Matsuno2020/02/26 Hiro_Matsuno
    • binary-pi2020/02/26 binary-pi
    • hiroxab2020/02/26 hiroxab
    • misshiki2020/02/26 misshiki
    • narita19802020/02/26 narita1980
    • yoshioka6272020/02/26 yoshioka627
    • kaputte2020/02/26 kaputte
    • knok2020/02/26 knok
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む