タグ

modelとmlに関するincepのブックマーク (4)

  • Real-life examples of Markov Decision Processes

  • 最小記述長 - Wikipedia

    英語版記事を日語へ機械翻訳したバージョン(Google翻訳)。 万が一翻訳の手がかりとして機械翻訳を用いた場合、翻訳者は必ず翻訳元原文を参照して機械翻訳の誤りを訂正し、正確な翻訳にしなければなりません。これが成されていない場合、記事は削除の方針G-3に基づき、削除される可能性があります。 信頼性が低いまたは低品質な文章を翻訳しないでください。もし可能ならば、文章を他言語版記事に示された文献で正しいかどうかを確認してください。 履歴継承を行うため、要約欄に翻訳元となった記事のページ名・版について記述する必要があります。記述方法については、Wikipedia:翻訳のガイドライン#要約欄への記入を参照ください。 翻訳後、{{翻訳告知|en|Minimum description length|…}}をノートに追加することもできます。 Wikipedia:翻訳のガイドラインに、より詳細な翻訳の手

  • AICとBIC?情報量基準とは? – MIIDAS Science Blog

    こんにちは。 前回、モデルを選択する基準のところで情報量基準という言葉をちょこっと出して、そのままスルーしました。しかし、データ分析においては重要なのでとりあえずその基礎くらいは知っておきましょう。ちなみにコードを書く際にパラメータ選択させられることもあります。 ではそもそも情報量基準とはなんなのか? 機械学習におけるとりあえずの目標は学習です。言い換えれば目的関数のerrorを最小化することです。線形回帰などは最適解があり、数式を解けるので最適なパラメータが得られるのですが、前回も言ったようにskip functionのないニューラルネットワークを始め多くのモデルは最適解を得ることが容易ではないです。そこでランダムな値からパラメータを変動させていくのでした。この際、errorが減少するようにパラメータを更新する、つまり、勾配の逆方向に動かすのでした。 では、ここで出る問題は errorが

  • What is the difference between transfer learning and fine tuning?

    Answer (1 of 10): The three other answers so far are all incorrect, and two of them are actually disturbingly far off, so I felt the need to chime in. The terms transfer learning and fine-tuning refer to two concepts that are very similar in many ways, and the two terms are being widely used alm...

    What is the difference between transfer learning and fine tuning?
    incep
    incep 2020/10/06
  • 1