タグ

analyticsとerrors-and-residualsに関するnabinnoのブックマーク (2)

  • 誤差 - Wikipedia

    誤差(ごさ、英語: error)は、測定や計算などで得られた値 M と、指定値あるいは理論的に正しい値あるいは真値 T の差 ε であり、 で表される[1][2]。 基的には、何らかの特定の意味をもつ対象について、実際に得られた値が、来の値からどれだけずれているかを表す量である。ただし、一般には真値が分からない場合に測定や見積りを行うのであり、データのばらつきや、測定の分解能以下の不確かさを内包する。したがって、この場合の誤差は、実測値だけから統計的に見積もられるべき量となる。データを定量的に議論する際には、常に、あらゆる種類の誤差の可能性を考慮しなければならない。 誤差の発生原因としては、測定する際に生じる測定誤差や、データを計算する際に生じる計算誤差、標調査による統計誤差(標準誤差)等が挙げられる。また実際におきる現象と数学的なモデルに違いがある場合にも誤差は生じる。 来数値で

  • バックプロパゲーション - Wikipedia

    バックプロパゲーション(英: Backpropagation)または誤差逆伝播法(ごさぎゃくでんぱほう)[1]はニューラルネットワークの学習アルゴリズムである[2]。 概要[編集] バックプロパゲーションは数理モデルであるニューラルネットワークの重みを層の数に関わらず更新できる(学習できる)アルゴリズムである。ディープラーニングの主な学習手法として利用される。 そのアルゴリズムは次の通りである: ニューラルネットワークに学習のためのサンプルを与える。 ネットワークの出力を求め、出力層における誤差を求める。その誤差を用い、各出力ニューロンについて誤差を計算する。 個々のニューロンの期待される出力値と倍率 (scaling factor)、要求された出力と実際の出力の差を計算する。これを局所誤差と言う。 各ニューロンの重みを局所誤差が小さくなるよう調整する。 より大きな重みで接続された前段のニ

    バックプロパゲーション - Wikipedia
  • 1