エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
HOGWILD! 論文要約 - Qiita
どんなもの? HOGWILD!: A Lock-Free Approach to Parallelizing Stochastic Gradient Descent 著者:Fe... どんなもの? HOGWILD!: A Lock-Free Approach to Parallelizing Stochastic Gradient Descent 著者:Feng Niu, Benjamin Recht, Christopher Re, Stephen J. Wright 2011年に機械学習のトップカンファレンスであるNIPSで発表された。機械学習で頻繁に使われる確率的勾配降下法(Stochastic Gradient Descent: SGD)の高速並列化手法「HOGWILD!」を提案している。高速化を実現する主なアイディアは、複数プロセッサーの共有メモリへのアクセスをロックしないこと。各プロセッサーが互いの計算結果を上書くケースがあるが、機械学習で用いる対象データがスパースな場合には、上書きによる計算結果への影響は小さく、ほぼ最適な収束率を達成する。 先行研究と比べ