タグ

2019年3月22日のブックマーク (4件)

  • An overview of gradient descent optimization algorithms

    An overview of gradient descent optimization algorithms Gradient descent is the preferred way to optimize neural networks and many other machine learning algorithms but is often used as a black box. This post explores how many of the most popular gradient-based optimization algorithms such as Momentum, Adagrad, and Adam actually work. This post explores how many of the most popular gradient-based

    An overview of gradient descent optimization algorithms
  • SGD > Adam?? Which One Is The Best Optimizer: Dogs-VS-Cats Toy Experiment

  • 《日経Robo》なぜディープニューラルネットは汎化するのか

    機械学習の目標は、有限の訓練データからルールや知識を獲得し、(同じ分布からサンプリングされる)訓練データには含まれないが、訓練データと同様の性質をもつ未知のデータに対してもうまく推論できるようなモデルを獲得することである。この能力を汎化能力と呼ぶ。 一般に学習は訓練データZ={zi}Ni=1が与えられた時、訓練データに対する損失関数l(z,f)の和を最小にするような関数fを求めることで実現する。 データがどのような分布から生成されているかは未知のため、汎化誤差も未知である。訓練データとは別に用意した正解の分かっている開発用データセットを使って汎化誤差を推定することは行われる。関数fは訓練誤差を最小にするように最適化されているため、一般に訓練誤差は汎化誤差よりも小さくなる。 訓練誤差が小さく汎化誤差が大きい場合が過学習 一般に関数の表現力を大きくすると訓練誤差を小さくできるが、汎化誤差が大き

    《日経Robo》なぜディープニューラルネットは汎化するのか
    dynamicsoar
    dynamicsoar 2019/03/22
    “SGDでの学習を加速させるようなADAMやRMS Propといった目的関数の曲率を利用した手法は汎化性能を大きく落とすということも分かってきた6)” 知らんかった…(2017の記事か)
  • Amazonからの配達商品が不在で受け取れず、玄関先に置かれていた件 - 元RX-7乗りの適当な日々

    タイトル通りですが、同様の方がいらっしゃるかもしれないので、何かの参考になればと、ログを残しておこうと思います。 先日のエントリにも書いたのですが、いつも通り Amazon で買い物をしたのですが、昨日から連絡があって「Amazonから荷物が届いてたけど、玄関に置かれていたよ」と。 お?いったい何が?と思って、メールを確認してみると確かに「配達完了」の通知が来ていて、"配送状況を確認" のページを確認して見ると以下のような感じでした。 お、おう。確かに玄関前にダンボールの荷物がちょこんと置かれている状態だ。 そして、ご丁寧に、"配送状況を確認" のページに証跡となる写真をアップしてくれていて、配達完了していますからね、と。 配達業者は、例のデリバリープロバイダ的なところ。 ・・・で、件で何か迷惑を被ったわけではないのですが、さすがに安くはない買い物( 中身は Echo Plus + E

    Amazonからの配達商品が不在で受け取れず、玄関先に置かれていた件 - 元RX-7乗りの適当な日々
    dynamicsoar
    dynamicsoar 2019/03/22
    co.jp って不在時オプションないんだっけか。co.uk だと不在時に「隣人に預けて」から「ゴミ収集boxの裏に置け」まで色々選べて、でもそれは無視して玄関前に放置されるのはまれによくあり、毎回クレーム入れてる。