タグ

予測に関するsotukenyouのブックマーク (30)

  • 競馬の予測をガチでやってみた - stockedge.jpの技術メモ

    的に競馬なんてやるべきではないと私は思っている。胴元の取り分が多いからだ。宝くじに比べればまだましだが、それでも賭け金の20~30%は胴元に取られることになる。*1 しかし今回は、ちょっと思い立って競馬の予測をやってみることにした。 理由は馬券の安さだ。私は現在、資金量が少ない人間でも不利にならない投資先を探しているのだが、馬券の一枚100円という安さは魅力的に映る。株の場合にはどんな安い株であれ最低購入額は数万円以上*2なので、ある程度まとまった資金が必要になる。 また、競馬には技術介入の余地(努力次第で勝利できる可能性)がある。 例えばこんな例がある。 160億円ボロ儲け!英投資会社が日の競馬で荒稼ぎした驚きの手法 - NAVER まとめ 彼らは統計解析によって競馬で勝っており、その所得を隠していたらしい。こういうニュースが出るということは、解析者の腕次第では競馬で勝てる可能性が

    競馬の予測をガチでやってみた - stockedge.jpの技術メモ
  • Kaggleとは?機械学習初心者が知っておくべき3つの使い方

    機械学習の基礎用語や初歩的な手法、数学的な理解を深めませんか?環境構築が不要、オンラインで実行が可能な機械学習入門チュートリアルを公開中!機械学習の世界へ飛び込んでみませんか? スクラッチで最小二乗法と最急降下法をPythonでコーディング(線形回帰) ロジスティック回帰の概要や数学的理解と実践に役立つ知識(ロジスティック回帰) まず呼び方ですが、Kaggleと書いて「カグル」と読みます。日でも最近は定着してきましたが、Kaggleに参加している方を「カグラー(Kaggler)」とも呼びます。 Kaggleですが、サイトへ行くと一番上に書かれていますが「The Home of Data Science & Machine Learning」(データサイエンスと機械学習の家)と題されている通り、世界中の機械学習・データサイエンスに携わっている約40万人の方が集まるコミニティーです。 Ka

    Kaggleとは?機械学習初心者が知っておくべき3つの使い方
  • 第7回 競馬予測を機械学習で解くための方法と評価方法

    第7回目の理論記事では競馬をどのように機械学習問題に落とし込むのか、また学習した予測モデルの性能評価方法について説明していきます。 教師あり学習と教師なし学習 機械学習の問題は**教師あり学習(Supervised Learning)と教師なし学習(Unsupervised Learning)**の大きく2つに分類されます1。 教師あり学習とは、特徴ベクトル $ \mathbf{x}_i $ に対する望ましい応答 $ y_i $ の組 $ {(\mathbf{x}_i, y_i) } $ を訓練データとして与え、それをガイドにして関係 $ y = f(\mathbf{x}) $ を学習をします。そのようにして得られた予測モデル $ f $ に未知の特徴ベクトルを与えることで未来の現象を予測します。予測モデル $ f $ は、線形モデル、ニューラルネットワーク、決定木、サポートベクターマシン

    第7回 競馬予測を機械学習で解くための方法と評価方法
  • 線形予測

    適応線形予測     Adaptive linear prediction ホーム 情報通信のハイパーテキストは下記へ移動しました。 http://www.mnc.toho-u.ac.jp/v-lab/ お探しの内容は、下記の目次にあります。 http://www.mnc.toho-u.ac.jp/v-lab/yobology/index.htm

  • ロジスティック曲線の解法(最小二乗法)について困っています。

    「分かっております」の式は明らかに嘘。 一瞥しておかしいと分かるのは、Σの外にxがある、という点です。実際に、a=... の式にデータを代入してaを計算しようと取りかかってみれば、すぐに立ち往生するでしょう。xというのはサンプル点の列x[k] (k=1,2,.....,n)のことであり、Σの中であれば、k=1,2...nについて総和を取ればよい。ですが、logxの所には、n個あるxのうち、はてさてどれを代入すりゃいいの?? つまり、そもそも式として体をなしていないんです。(おかしいところは、それだけじゃないのですが。) じゃ、どうしましょうか。 既に出ている回答のように、非線形最小二乗法の問題として扱う。というのが、ご質問に対するストレートな回答でしょう。大変そうに見えても、やってみりゃどうということはありません。(詳しいやり方をご所望なら回答します。) ところで「過去の実績を基に、将来値

    ロジスティック曲線の解法(最小二乗法)について困っています。
  • 信頼度成長曲線 - Wikipedia

    信頼度成長曲線(しんらいどせいちょうきょくせん 英:Software Reliability Growth Curve)とは、横軸に日付、テスト時間、またはテストケース数、縦軸に累積バグ発見数をとったグラフ。S字の成長曲線を描くことが多い。 プロジェクトの進捗状態の確認などに用いる。 決定論的モデルとして、最小二乗法でゴンペルツ曲線やロジスティック曲線に近似したり、確率モデルとして、非同次ポアソン過程モデルなどで表したりすることにより、現在の状況から今後の予想を立て、テスト進捗管理、バグ収束率の予測、残バグ数の予測などに用いることもある。 収束を見る場合に、横軸に日付を使った場合、テストをしていないからバグが出ないのか、テストをしてもバグが出ないのかの区別がつかないという問題がある。 参考文献[編集] 『ソフトウェア信頼性モデル-基礎と応用』、山田茂著、日科技連出版、ISBN 481716

  • 一般化線形モデルによるデータの近似 - MATLAB & Simulink Example - MathWorks 日本

    この例では、glmfit と glmval を使用して、一般化線形モデルの当てはめと評価を行う方法を示します。通常の線形回帰を使用すると、直線、またはパラメーターにおいて線形である任意の関数を、正規分布した誤差を伴うデータに当てはめることができます。これは最もよく使用されている回帰モデルですが、必ずしも現実的なモデルであるとは限りません。一般化線形モデルは、線形モデルを 2 つの方法で拡張したものです。第 1 に、リンク関数を導入することで、パラメーターにおける線形性の仮定が緩和されます。第 2 に、正規分布以外の誤差分布をモデル化できます。 一般化線形モデル回帰モデルは、応答変数 (一般に y で示される) の分布を、1 つ以上の予測子変数 (一般に x1、x2 などで示される) を使用して定義します。最もよく使用されている回帰モデルである通常の線形回帰は、正規確率変数として y をモデ

  • AR 自己回帰

    ARモデル     Auto-regressive model ホーム 情報通信のハイパーテキストは下記へ移動しました。 http://www.mnc.toho-u.ac.jp/v-lab/ お探しの内容は、下記の目次にあります。 http://www.mnc.toho-u.ac.jp/v-lab/yobology/index.htm

  • サービス終了のお知らせ - NAVER まとめ

    サービス終了のお知らせ NAVERまとめは2020年9月30日をもちましてサービス終了いたしました。 約11年間、NAVERまとめをご利用・ご愛顧いただき誠にありがとうございました。

    サービス終了のお知らせ - NAVER まとめ
  • 株式会社TAOS研究所 : リアプノフスペクトル解析

  • 線形予測モデル(LPC):自己相関法 - 数学 - 教えて!goo

    (1) の線形予測についてだけ。 LPC は過去のサンプルの「線形結合」で現在の値を「予測」するから「線形予測」という名前になってます。 過去のサンプル x[n-1], x[n-2], x[n-3],… の線形結合(重み付け和)で現在値 x[n] を予測しますので、 y[n] = a[1]*x[n-1] + a[2]*x[n-2] + a[3]*x[n-3] + … のような形になります (y[n] は x[n] の予測値です)。見てお分かりのように、これは x[ ] を FIR フィルタリングすることに等しいです。 最適な FIR 係数 a[ ] はユール・ウォーカー方程式を解くと得られ、この際にレビンソン・ダービンのアルゴリズムが使えます。

  • 自己相関列からの反射係数の計算 - MATLAB schurrc - MathWorks 日本

    説明k = schurrc(r) では、Schur アルゴリズムを使用して、自己相関列を表すベクトル r から反射係数ベクトル k が計算されます。k と r は同じサイズです。反射係数は、与えられた自己相関列 r を使用した信号に対する予測フィルターの、ラティス フィルター パラメーターを表します。r が行列の場合、関数 schurrc では r の各列が独立した自己相関列として扱われ、r と同じサイズの行列k が返されます。k の各列は、対応する自己相関列 r を使用して変動過程を予測するための、ラティス予測フィルターの反射係数を表します。 [k,e] = schurrc(r) では、予測誤差分散を表すスカラー e も計算されます。r が行列の場合、e は行ベクトルになります。e の行数は、r の列数と同じです。

  • 線形予測と自己回帰モデリング - MATLAB & Simulink Example - MathWorks 日本

    この例は、自己回帰モデリングと線形予測の関係を比較する方法を示します。線形予測と自己回帰モデリングという 2 つの問題は、同じ数値結果を得ることが可能です。両方の問題の最終的な目的は、線形フィルターのパラメーターを確定することです。しかし、それぞれの問題で使われるフィルターは異なります。 はじめに線形予測の目的は、過去のサンプルの線形結合に基づいて、自己回帰過程の今後のサンプルを的確に予測できる FIR フィルターを決定することです。実際の自己回帰信号と予測信号の差は、予測誤差と呼ばれます。理想的には、この誤差がホワイト ノイズです。 自己回帰モデリングの目的は、ホワイト ノイズによって励起されたとき、モデル化する自己回帰過程と同じ統計値をもつ信号を生成する全極 IIR フィルターを決定することです。 入力がホワイト ノイズである全極フィルターを使用した AR 信号の生成LPC 関数と F

  • Q1

    Q1:相関と回帰の違いは何か?2つの変数の比例関係を見る点では相関も回帰分析も変わりないように思われるが…。 A1:2変数がどれくらい散らばっているかを表すのが相関[係数]である(図1a)。一方の変数から他方の変数を予測するために最も都合の良い直線を引くのが回帰[分析]である(図1b)。これらの目的は根的に異なり,Altman1)も両者を同時に求めることはあり得ないと述べている。従って,事前に「比例関係」とは何かを明確に定義づけて使い分けるのがポイントとなろう。 同一のデータであっても,相関係数と回帰係数が大きく異なることは意外に多い。1つの例を挙げよう。図2aは相関係数と回帰係数が,ともに1の直線関係にある例である。さて図2bは図2aと比べて回帰式が変化せず,相関係数のみが低くなった例である。回帰係数はyに対し,x方向からみて誤差が最小となるような直線を引くから1になるのである。もちろ

  • 津田一郎先生からのメッセージ | 「今こそ、学問の話をしよう」河合塾

    私の専門のカオスや複雑系は物理学、数学、生物学、化学、地学の接する所で生まれた学問です。カオスというのはほんの少しのずれがどんどん拡大されていくという性質を持っています。このことにより、将来の振る舞いの正確な予測ができなくなります。数学や物理学は現象を厳密に記述し、予測し、確認する方法を持ち、それゆえに精密科学といわれています。数学を使えば、予測が不可能だということさえ証明可能になります。 そして、社会はこれらの学問に支えられて発展してきました。しかし他方で、自然には因果関係が複雑に入り組んでいるために、私たちがいまだに十分には理解できない現象がたくさんあります。生命現象、宇宙や地球の変動はそのようなものです。その中で私は、特に脳の中の現象に興味を持ち、カオスの数学を使って研究しています。やっと思考や記憶の成り立ちがほんの少しだけ分かってきましたが、まだまだ努力を続けなければなりません。

  • サービス終了のお知らせ

    サービス終了のお知らせ いつもYahoo! JAPANのサービスをご利用いただき誠にありがとうございます。 お客様がアクセスされたサービスは日までにサービスを終了いたしました。 今後ともYahoo! JAPANのサービスをご愛顧くださいますよう、よろしくお願いいたします。

  • 決定論 - Wikipedia

    決定論(けっていろん、英: determinism、羅: determinare)とは、あらゆる出来事は、その出来事に先行する出来事のみによって決定している、とする哲学的な立場。 対立する世界観や仮説は「非決定論」と呼ばれる。 概説[編集] 近代的な決定論は、宇宙に対する決定論と、人間に対する決定論に大別される[1]。 宇宙に対する決定論は、宇宙の全ての状態は、それ以前の状態から物理法則に従って必然的に変化し、決定されるという考えである。因果的決定論とも呼ばれる。 人間に対する決定論は、ある個人に制御できない要素によって、その人の思考や行動が決まるという考えである。因果的決定論を人間にそのまま適用すれば、人間も物理法則に従って動く物質にすぎず、人間の思考や行動も事前に決定されていたことになり、自由意志の存在は否定される。量子論を考慮しても、人間の思考や行動は物理法則によって「確率的に」決定

  • 2 カオスと時系列解析

    「決定論的カオス理論に基づく時系列解析システム」 計装 8月号 Vol.40 No. 8 (1997) 決定論的カオスの特徴を表す重要な特性として,初期値に対する鋭敏な依存性, 軌道不安定性,長期予測不能性,短期予測可能性をあげることが出来る [1,2,3,4].初期値に対する鋭敏 な依存性は「バタフライ効果」とも呼ばれ,微小な誤差の影響が時間と共に指数 関数的に拡大し,短期間のうちに対象のグローバルスケールまで拡大してしまう 性質を言う.初期値に限らず,微小な外乱によっても同様の性質が生じ,それは 軌道不安定性とも呼ばれる.実世界では無限の精度での観測や初期値の指定など は不可能であるので,システムがカオスであるなら,長期の予測は原理的に不可 能となる.しかしながら他方で,誤差が観測スケールまで拡大しない短期ならば 決定論的予測が可能と言うことであり,そこに,非線形理論に立脚した予測手法

  • Big Data Analytics | IBM

    Big data analytics Leverage the most effective big data technology to analyze the growing volume, velocity and variety of data for the greatest insights Big data analytics is the use of advanced analytic techniques against very large, diverse data sets that include structured, semi-structured and unstructured data, from different sources, and in different sizes from terabytes to zettabytes. Big da

    Big Data Analytics | IBM
  • 信頼区間と検出力

    さて、いよいよ題に戻ることにしましょう。上図は母平均がで母分散がの母集団からの大きさの任意標を抽出したときの標平均の分布(正規分布を表していますが、標平均の値が母平均から離れれば離れるほど急速にその実現確率は小さくなりではとなって実現性は全くあり得ないことになってしまいます。そこで、の値が標の平均としてどの程度までが許容できる限界かを決める必要がありますが、わたしたちは経験的に以下の確率しかない値はめったに起こりそうにもない実現値であろうと考えるのが妥当とみなします。すなわち、上図では両側併せてになるところですから片側ずつにすると以下になるが実現しそうにない値だと言えます。この限界点のことを信頼限界と呼び、上図では信頼上限はであり信頼下限はとなります。1.96という数字は正規分布のパーセント点の表で0.025に相当する値です。すなわち、標平均の95%信頼区間(confidenc