タグ

2019年11月30日のブックマーク (3件)

  • Pythonでデータ分析:ランダムフォレスト - データサイエンティスト(仮)

    導入 前回、非線形的な効果を表現することの一例として、決定木回帰を紹介しました。 tekenuko.hatenablog.com 決定木は、ざっくりとしたデータの特徴を捉えるのに優れています*1。しかしながら、条件がデータに依存しがちなため、過学習しやすいという欠点もあったのでした。 この欠点を緩和するための方法として、アンサンブル学習という方法があります。これは、データをサンプリングしてモデルを構築、それらを組み合わせて新たなモデルを構築する方法です。ランダムフォレストは、ざっくりいうと多数の決定木を作成し、それらを平均化する手法です。個々のモデルではデータの変化の影響が大きくても、まるっと平均化したものは影響が少なくなるため、一つの決定木でモデルを作るのに比べて過学習が緩和されやすくなります*2。 ランダムフォレストをより深く理解するためには、ある程度しっかりした機械学習を読んだり

  • How to use wgrib2 command (hysk)

    GRIB2 ファイルの dump (wgrib2 コマンド) GIRB-2 形式ファイル(単にGRIB2ファイルと称されることもある)の 読み出し(デコード; decode)に関するメモ. GRIB & wgrib 情報 or GRIB-1 ファイルのdump (wgrib コマンド) を見る 気候学気象学関連情報 に戻る GRIB-2形式で配布されているデータ: JMA GPV データ NCEP tropospheric final (FNL) analyses NCEP CFS再解析 wgrib2 の使用方法 読み出したいGRIB2 ファイル名を hoge.grib とする. コマンドラインでの使い方はこんな感じ: wgrib2 [オプション] hoge.grib これだけじゃ単純過ぎると思うかもしれませんが, wgrib2 のオプションと UN*X コマンドを使い, シェルスクリプト

  • ディープラーニング(深層学習)が流行る理由~なんでもディープラーニングでOKというわけではない~

    いろいろなところで、ディープラーニング (deep learning) とか深層学習とかディープニューラルネットワークとかを耳にすると思います。実際にニューラルネットワークのモデルを構築したことがある人もいるかもしれません。ディープラーニングは隠れ層の層の数を多くしたニューラルネットワークを学習することであり、基的には以下の逆誤差伝播法で学習できます。 誤差逆伝播法によるニューラルネットワーク(BackPropagation Neural Network, BPNN)~深層学習(ディープラーニング)の基礎~ 誤差逆伝播法によるニューラルネットワーク (BackPropagation Neural Network, BPNN) についてです。基的には深層学習 (ディープラーニング) も同じ学習方法で実現できます。BPNN について説明するスライ... 逆誤差伝播法の原型は、David E

    ディープラーニング(深層学習)が流行る理由~なんでもディープラーニングでOKというわけではない~