タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

分析と回帰に関するAobeiのブックマーク (3)

  • プロでもよくある線形回帰モデルの間違い - Qiita

    最近、データサイエンスが流行っていることもあり、線形回帰モデルについても解説記事を見かけることが多くなりました。情報にアクセスしやすくなったのはいいことだと思うんですが、ずっと以前から間違いや解説の不足が多い理論なので、私なりに解説を試みたいと思います。全体的にあまり厳密ではありませんが、線形回帰モデルを学びたての方には有益な記事になるかなと思います。 あと、私も勉強中の身なので、間違いがあったらご指摘いただけたら嬉しいです。 題 さて、よくある間違いとは以下のような解説です。 線形性の仮定が満たされていないので、線形回帰モデルを使ってはいけない 残差が正規分布&等分散ではないので、線形回帰モデルを使ってはいけない 回帰係数に対するt検定の結果をもとに、p値が大きい説明変数を除外する 多重共線性があるとよくないので、変数間で相関が強い、もしくはVIF値が大きい変数を除外する AICが小さ

    プロでもよくある線形回帰モデルの間違い - Qiita
  • ”美しい仮定”は精度を向上させる――「回帰分析」には対数(log)変換が有用な理由

    AIに欠かせない数学を、プログラミング言語Pythonを使って高校生の学習範囲から学び直す連載『「AIエンジニアになるための「基礎数学」再入門』。前回は最小二乗法および回帰分析について解説しました。 今回のテーマは、有用なケースが多いのでぜひ覚えてほしいテクニック「対数変換」です。前回の回帰分析に使えるものですが、「なぜ有用なのか?」についても解説します。 回帰分析の復習 前回学んだ単回帰分析について簡単に復習します。単回帰分析は、「y = ax + b」という数式である値を予測するものでした。例として、以下のような課題を与えられたとします。 課題:年収からその人の資産額を推測せよ 目的変数yが資産額 説明変数xが年収 使用するデータのイメージ Name y:資産額(万円) x:年収(万円) A

    ”美しい仮定”は精度を向上させる――「回帰分析」には対数(log)変換が有用な理由
  • 回帰分析における「調整変数」の選び方:実践編 - Unboundedly

    回帰分析を用いて「●●の効果を推定する」ことに取り組んだことがある人は多いのでは無いかと思います。 回帰モデルには「調整変数」として、年齢・性別・教育歴・(医学研究の場合は)既往歴などなど様々な要因を投入して、その影響を"補正"しますよね。 今回は、これらの「調整変数」をそもそもどのように選べばいいのか、その実践的な考え方についてまとめます。 ステップワイズつかって選べばいいんでしょう? アウトカム/曝露因子と有意に関連しているものを選べばいいんでしょう? とにかくたくさん調整すればするほど良いのでしょう? 調整して推定値が大きく変わるものを使えばいいのでしょう? はいはいドメイン知識、DAGを書くんでしょう? と思った人は参考になるかもしれません。 なお、記事は以下の論文の内容をもとに構成されています。 そもそも「調整」するとはなにか? 教科書的な正解はDAGを書くこと 調整変数選択の

    回帰分析における「調整変数」の選び方:実践編 - Unboundedly
  • 1