タグ

2017年5月8日のブックマーク (2件)

  • Gradient Boosting と XGBoost

    Gradient Boosting や XGBoostについて調べたことをまとめました. Gradient Descent や Newton法と絡めて説明していきたいと思います. 目次 Boosting Gradient Descent (Steepest Descent) Gradient Boosting Regression Tree Gradient Tree Boosting Learning rate Newton Boosting XGBoost Generalization Error Conclusion Reference Boosting Boostingとは,ランダムより少し良い程度の”弱い”学習アルゴリズムを使って, そのアルゴリズムよりも”強い”学習アルゴリズムをつくることです. イメージとしては,弱い学習アルゴリズムを”boost”してあげる感じでしょうか.

    Gradient Boosting と XGBoost
  • docker ps --filter で前方/後方一致 - @m4i's blog

    2016-03-30 追記 「name の先頭に / を付加した文字列に対して正規表現でマッチする」 が正解っぽい。 ソースは多分この辺り。 文 前方一致は先頭に /、後方一致は末尾に $ を付ける。 試したら動いただけで、根拠は見つけられなかったし、正しい使い方かもわからない。 $ docker run -d --name=a-1 busybox sleep 1h e573427357b0bb0649557f0ba8822152cab8defed3c7d73f3d95c87faaa5fb59 $ docker run -d --name=a-10 busybox sleep 1h 668b39819d5fde507df2fe8f4163da02db9d2d5f1ce541743a3ce19d21e74744 $ docker run -d --name=ba-1 busybox sle

    nazoking
    nazoking 2017/05/08
    お役立ち情報