In statistics and machine learning, ensemble methods use multiple learning algorithms to obtain better predictive performance than could be obtained from any of the constituent learning algorithms alone.[1][2][3] Unlike a statistical ensemble in statistical mechanics, which is usually infinite, a machine learning ensemble consists of only a concrete finite set of alternative models, but typically
恥ずかしながら,線形代数周りの用語って似たようなものが多くて,すぐにアレがどれだっけと混同してしまいがちになります.線形代数の手計算とかがんばってたのなってもう10年とか昔の話だし,チートシート的にまとめなおしておこうと思いました.内容的には,主に統計や機械学習で使うような内容が中心になっています. 概要 統計・機械学習で使う線形代数は,基本的には以下「計算の簡便化」と「データ変換」の2つがメインです.もちろん数学的に突っ込んでいったり,統計・機械学習でも応用的な手法を用いる場合はその限りではないですが,基本的には下の2つが大きいと思います*1. 計算の簡便化 (例えば固有値・固有ベクトルを用いて)行列を対角化することで,行列の乗算を高速に実施する (LU分解を用いて)扱いやすい形に行列を分解することで,その後の計算を高速にする データ変換 SVDを行うことでLSIやPCAといったデータ縮
統計学とか機械学習周りの本を読んでいると,何の説明もなくややこしい数学記号が出てきて,そういえばこれはなんだっただろう? と途方に暮れてしまうことが少なくないので,自分用にまとめなおしてみました,というのが今回のエントリ.あくまで自分用なので,全部の数学記号を扱ってるわけではありません*1. 代数学 記号 意味 用例 用例の意味 備考 総和 要するに足し算 総乗 要するにかけ算 クロネッカーのデルタ i=jなら1,それ以外なら0 要するにブーリアン条件 ナブラ *2 3次元ベクトルの微分 要するに各要素の微分 ラプラシアン 3次元ベクトルの2階微分 要するに各要素の2階微分 下限 のとき与式は0になる との違いは,は当該値を含む必要があるが,はないこと 上限 との違いは,は当該値を含む必要があるが,はないこと 関数値が最大となるような定義域の元の集合 を最大にするような がの下にくる場合も
つい先日,stackingについての以下の記事が話題になっていました. このあたり,私自身は試したことがなかったので,実際に試してみましたよというお話. コード Rでちゃちゃっと書きました.データをk分割して,分割サンプルごとに訓練データでロジスティック回帰予測モデル構築→予測結果を訓練データに追加→RandomForestで予測モデルを構築,までが訓練フェーズ.テストフェーズでは構築したロジスティック回帰とRandomForestを使ってテストデータの分類を行いました. 使ったのは手元にあった2000サンプル,分類クラス数は2クラスで,正例負例がそれぞれ1000サンプルでした.素性ベクトルはすべてバイナリの15個の変数になります. library(randomForest) # load data data = read.delim("data/sample.tsv", sep="\t"
ソフトクリームが大好きな皆さんにオススメ。いや、ソフトクリームを別に好んで食べない方にもオススメな都内のソフトクリーム店を紹介していきます。あなたのソフトクリーム観が変わる。そんなソフトクリーム、食べてみたくないですか?(なお情報は記事掲載時点のものです。詳細は公式サイトなどでも事前確認することをおすすめします。) 情報は記事掲載時点のものです。施設によって営業時間の変更や休業などの可能性があります。おでかけの際には公式HP等で事前にご確認ください。また、当サイトではアフィリエイトプログラムを利用しており、ご紹介するお出かけスポットや商品に、アフィリエイトリンクを設置している場合があります。RETRIPでは引き続き、行き先探しに役立つおでかけ情報を提供していきます。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く