記事へのコメント6

    • 注目コメント
    • 新着コメント
    reboot_in
    reboot_in “まあ少なくともSGDに比べたら精度も収束時間も格段に上がることはわかっているので、次はもう少しこれらのアルゴリズムがそれぞれどのような問題に適しているのかということを理解することが課題だと考えています。

    2020/06/30 リンク

    その他
    stealthinu
    stealthinu SGDからAdamまでのオプティマイザについての解説。SGD/Momentum/AdaGrad/RMSprop/AdaDelta/Adamの各々の式がまとめられてる。

    2019/03/04 リンク

    その他
    hsato2011
    hsato2011 momentum SGDの説明。SGDとAdagradなど勾配法の説明

    2018/03/29 リンク

    その他
    stibbar
    stibbar adam

    2018/01/26 リンク

    その他
    rishida
    rishida 最適化の比較

    2016/08/25 リンク

    その他
    kaz_uki_1014
    kaz_uki_1014 Optimizer : 深層学習における勾配法について - Qiita はじめに深層学習の勾配法には様々な手法が提唱されています。その中で、どの手法を用いるのが適切であるか自分でもあまり理解できていない部分があり、今回は勾配法の

    2016/08/20 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Optimizer : 深層学習における勾配法について - Qiita

    はじめに 深層学習の勾配法には様々な手法が提唱されています。その中で、どの手法を用いるのが適切であ...

    ブックマークしたユーザー

    • togusa52020/07/29 togusa5
    • reboot_in2020/06/30 reboot_in
    • serihiro2020/05/19 serihiro
    • darupants2019/09/10 darupants
    • mtanaka10112019/03/19 mtanaka1011
    • stealthinu2019/03/04 stealthinu
    • toru-kanimiso2018/12/31 toru-kanimiso
    • abrahamcow2018/12/14 abrahamcow
    • ma__ko__to2018/09/03 ma__ko__to
    • hsato20112018/03/29 hsato2011
    • stibbar2018/01/26 stibbar
    • kabi2mikan2017/11/20 kabi2mikan
    • wanimaru472017/11/17 wanimaru47
    • ryshinoz2017/10/18 ryshinoz
    • satmat2017/08/15 satmat
    • dogwood0082017/04/18 dogwood008
    • tuki09182017/02/14 tuki0918
    • chezou2017/02/06 chezou
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事