タグ

予測と数学に関するsotukenyouのブックマーク (7)

  • ロジスティック曲線の解法(最小二乗法)について困っています。

    「分かっております」の式は明らかに嘘。 一瞥しておかしいと分かるのは、Σの外にxがある、という点です。実際に、a=... の式にデータを代入してaを計算しようと取りかかってみれば、すぐに立ち往生するでしょう。xというのはサンプル点の列x[k] (k=1,2,.....,n)のことであり、Σの中であれば、k=1,2...nについて総和を取ればよい。ですが、logxの所には、n個あるxのうち、はてさてどれを代入すりゃいいの?? つまり、そもそも式として体をなしていないんです。(おかしいところは、それだけじゃないのですが。) じゃ、どうしましょうか。 既に出ている回答のように、非線形最小二乗法の問題として扱う。というのが、ご質問に対するストレートな回答でしょう。大変そうに見えても、やってみりゃどうということはありません。(詳しいやり方をご所望なら回答します。) ところで「過去の実績を基に、将来値

    ロジスティック曲線の解法(最小二乗法)について困っています。
  • 線形予測モデル(LPC):自己相関法 - 数学 - 教えて!goo

    (1) の線形予測についてだけ。 LPC は過去のサンプルの「線形結合」で現在の値を「予測」するから「線形予測」という名前になってます。 過去のサンプル x[n-1], x[n-2], x[n-3],… の線形結合(重み付け和)で現在値 x[n] を予測しますので、 y[n] = a[1]*x[n-1] + a[2]*x[n-2] + a[3]*x[n-3] + … のような形になります (y[n] は x[n] の予測値です)。見てお分かりのように、これは x[ ] を FIR フィルタリングすることに等しいです。 最適な FIR 係数 a[ ] はユール・ウォーカー方程式を解くと得られ、この際にレビンソン・ダービンのアルゴリズムが使えます。

  • 津田一郎先生からのメッセージ | 「今こそ、学問の話をしよう」河合塾

    私の専門のカオスや複雑系は物理学、数学、生物学、化学、地学の接する所で生まれた学問です。カオスというのはほんの少しのずれがどんどん拡大されていくという性質を持っています。このことにより、将来の振る舞いの正確な予測ができなくなります。数学や物理学は現象を厳密に記述し、予測し、確認する方法を持ち、それゆえに精密科学といわれています。数学を使えば、予測が不可能だということさえ証明可能になります。 そして、社会はこれらの学問に支えられて発展してきました。しかし他方で、自然には因果関係が複雑に入り組んでいるために、私たちがいまだに十分には理解できない現象がたくさんあります。生命現象、宇宙や地球の変動はそのようなものです。その中で私は、特に脳の中の現象に興味を持ち、カオスの数学を使って研究しています。やっと思考や記憶の成り立ちがほんの少しだけ分かってきましたが、まだまだ努力を続けなければなりません。

  • 信頼区間と検出力

    さて、いよいよ題に戻ることにしましょう。上図は母平均がで母分散がの母集団からの大きさの任意標を抽出したときの標平均の分布(正規分布を表していますが、標平均の値が母平均から離れれば離れるほど急速にその実現確率は小さくなりではとなって実現性は全くあり得ないことになってしまいます。そこで、の値が標の平均としてどの程度までが許容できる限界かを決める必要がありますが、わたしたちは経験的に以下の確率しかない値はめったに起こりそうにもない実現値であろうと考えるのが妥当とみなします。すなわち、上図では両側併せてになるところですから片側ずつにすると以下になるが実現しそうにない値だと言えます。この限界点のことを信頼限界と呼び、上図では信頼上限はであり信頼下限はとなります。1.96という数字は正規分布のパーセント点の表で0.025に相当する値です。すなわち、標平均の95%信頼区間(confidenc

  • 重回帰分析 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。 出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "重回帰分析" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL (2016年2月) 重回帰分析(じゅうかいきぶんせき)は、多変量解析の一つ。回帰分析において独立変数が2つ以上(2次元以上)のもの。独立変数が1つのものを単回帰分析という。 一般的によく使われている最小二乗法、一般化線形モデルの重回帰は、数学的には線形分析の一種であり、分散分析などと数学的に類似している。適切な変数を複数選択することで、計算しやすく誤差の少ない予測式を作ることができる。重回帰モデルの各説明変数の係数を偏回帰係数という。目的変数への影響度は偏回帰係数は示さないが標

  • 「テラバイトデータ」プレナス投資顧問のAIの評判

    プレナス投資顧問によると、日AI人工知能技術戦略は、官僚がその分野の権威筋の知恵を借りて作り上げるという形を取っている。しかしこの方式は、AIテラバイトデータ革命においては、あまりうまくいかない。なぜかというと、権威筋の学識は、AIテラバイトデータ革命のスピードに追いつけないし、また官僚の立案は、確実性と判断の誤りのないことが前提だが、AI革命では、この前提自体が成り立たないからだ。 人材 AI開発の人材は、育成されるものではなく、育つ環境を与えて、余計な干渉をしないところに育つようだ。AI革新に学会の権威は役立たない。たとえば、リナックスを作り上げたリーナスとOSの権威であるタネンバウム教授との論戦を思い起こしてほしい。20歳の無名の若者が学会の権威に真っ向からたてつき、教授に、「君が私のクラスにいれば進級できないだろう」といわせたのである。 ■第5世代コンピューターとは 第5世

  • 線形予測法 - Wikipedia

    系列 に対して 次の線形予測法で推定した値 は予測係数 を用いて次で表される。 すなわち線形予測法とは 次の過去系列を用いた線形回帰である。 この誤差は多次元信号においてベクトルノルム を用いて次のように定義される。 線形予測法における予測係数 には様々な推定方法が存在する。 最適化においてパラメータ の典型的な選択法は、二乗平均平方根基準であり、これを自己相関基準とも呼ぶ。これは、以下の式で得られる二乗誤差 E[e2(n)] の期待値を最小化する手法である。 ここで 1 ≤ j ≤ p であり、R は信号 xn の自己相関であり、次のように定義される。 ここで E は期待値である。多次元の場合、これはL2ノルムを最小化することに対応する。 上の式を正規方程式または Yule-Walker 方程式と呼ぶ。行列形式でこの方程式を表すと、次のようになる。 ここで、自己相関行列 R は対称なテプ

  • 1