タグ

ブックマーク / logics-of-blue.com (3)

  • Rによる機械学習:caretパッケージの使い方 | Logics of Blue

    ニューロンの個数を2パタン。 データへの依存度を3パタン用意すると、2×3=6パタンも試さなければなりません。 大変に面倒ですが、このハイパーパラメタを雑に設定すると予測精度が落ちてしまうこともよくあります。 めんどくさいですが、なるべくやったほうがいいです。 4.モデルを使って予測する これは簡単。単に予測をするだけです。 パッケージを使っていれば、たいていは予測用の関数が用意されています。 5.予測の評価をする 最後は評価です。 評価をすることによって、 ・どの手法の ・どのパッケージの ・どのパラメタを 採用すべきかを判断します。 で、一番予測精度がいいやつを使って予測することになります。 たくさんの手法、たくさんのパッケージ、たくさんのパラメタの組み合わせをしらみつぶしに評価する。 普通にこれをやろうと思うと、気が遠くなってしまいますね。 そこで登場するのがパッケージ「caret」

    tsu-nera
    tsu-nera 2017/10/07
  • 統計学初心者のための読書案内 | Logics of Blue

    ここでは、統計学初心者の方のための読書案内をします。 お勧めの統計学入門書を並べました。参考になれば幸いです。 また、記事の最後に、下記のニーズを持った方にお勧めする書籍と、読む順番も書きました。 1.統計学のリテラシーを身に着けたい 2.推測統計を学びたい。検定を理解したい 3.統計モデルを勉強してみたい 統計学に興味を持とう 統計学のには2種類あります。 1つは縦書き。もう1つは横書きのです。 縦書きはその仕様上、数式を載せるのがとても下手です。そのため、数式はかなり少ないです。 ですので、縦書き統計学のは、啓蒙書だと思って読むのがよいでしょう。 縦書きの統計学入門書を読んで、統計学の理論を身に着けることができるのは稀です。 しかし、統計学に興味を持つきっかけとしては十分だと思うので、ここで紹介します。 その数学が戦略を決める ワインの品質を予測する数式、データを使った野球経

    tsu-nera
    tsu-nera 2017/09/09
  • 情報理論の基礎~情報量の定義から相対エントロピー、相互情報量まで~ | Logics of Blue

    最終更新:2017年6月12日 この記事では「情報量をどのように定義するか」という問題への回答としての、情報エントロピー、そして、相対エントロピー(別名:カルバック・ライブラーの情報量)や相互情報量の導入とその解釈の仕方を説明します。 統計学や機械学習を学ぶ際に、どうしても必要となる考え方ですので、ある程度まとまった知識、解釈の仕方を持っておくと、少し難しい書籍を読んだ時にも対応ができるようになるかと思います。 スポンサードリンク 目次 情報理論とは 情報量を定義する 情報エントロピーと平均情報量 相対エントロピー 相互情報量 1.情報理論とは 情報理論とは、文字通り「情報とは何かを定義し、より良い扱い方を考える学問」といえます。 その中でも大きく3つのジャンルに分けることができます。 1つ目は、そもそも情報量をどのように定義するか、という問題を解決するジャンル。 2つ目は、情報を、いかに

    tsu-nera
    tsu-nera 2017/06/12
  • 1