Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
scikit-learnによる多クラスSVM 目的 scikit-learnのSVM(SVC)は,多クラス分類を行うとき,one-versus-oneで分類する. しかし,one-versus-the-restの方が識別性能がいい場合がある(多い,という報告を見かける)ので, sklearn.multiclassのOneVsRestClassifierを使った one-versus-the-restでの多クラスSVM分類の仕方をメモしておく. (注)ただし,LinearSVCはデフォルトでone-versus-the-restを採用している. One-versus-the-restとOne-versus-one $K$クラス分類問題を考える. One-versus-the-rest ある特定のクラスに入るか,他の$K-1$個のクラスのどれかに入るかの2クラス分類問題を解く分類器を$K$個利
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Edisonをセンサーやアクチュエータを操作するマイコンのようにしか使わないのは,ちともったいない.EdisonはIoTの末端に位置するだけの存在じゃないんですよ,と. 大まかな手順は,以下. 母艦の準備 Edisonの初期設定 EdisonのPython設定. それじゃ,いってみよー! *前回の記事とダブってるところが,かなりあります. 母艦の準備 Debianのイメージをダウンロードしてくる. とりま,Yoctoのことは忘れましょう.さようならYocto・・,短い間だったけど楽しかった,君のことはきっと忘れない.もっとパッケージ数が
scikit-learn + クラスタリングに関してはこのブログのだいぶ初期にちょっとだけ触ったのですが、今にして思うと説明不足感が否めないですし、そもそもこれだけじゃ scikit-learn を思い通りの目的にあわせて使えないという意見もあるかと思います。そこで改めて scikit-learn による基本的なクラスタリングについて説明していきます。 といっても基本的な話としては本家のドキュメントを読めで話が終わってしまうのですが、日本語の情報があると何かと助かるということもあるかと思います。 生徒の成績をもとに班分けをおこなう よくあるケースとしては例えば、生徒の国語・数学・英語の成績をもとにいくつかのグループに分けたいという場面です。このとき、各科目の合計点の上位から順番に分けてもいいのですが、中には国語が良く出来るけど数学はいまひとつな生徒、数学は得意だけど国語はいまひとつな生徒も
クラスタリングの概要 実装根拠は以下を参照してください。 K-means++ K-means 英語ですけど日本語のページより情報量が多くまた厳密性があると思います。 scikit-learn の概要 Python で機械学習のあれこれをできる超便利なライブラリです。この辺を読んでください。 scikit-learn scikit-learn の紹介 前提 入力ファイルとして文字列ごとに改行で区切られたテキストファイルを想定します。 使い方としては python clustering.py input.txt output.txt のように引数に入出力ファイルを指定します。 途中 print() で途中結果を表示しています。 出力ファイルにクラスタリング後のデータが出力されます。 ぜひ適当なテキストファイルを用意して実際に動かしてみてください。 実装 コード全体は以下の通りです。 clust
scikit-learnCross ValidationとGrid Searchをやってみた。 Cross Validation 詳しいことはWikipediaに書いてある。 Cross Validationはモデルの妥当性を検証する方法のひとつ。一般的に開発用のデータは訓練データと検証データに分かれる。 しかし、このまま行ってしまうと折角の訓練データが減ってしまうことになる上に、訓練データの選び方によって汎化性能が下がってしまう可能性がある。 Wikipediaに書いてあるもののホールド・アウト検定がこれに当たる。一般にはこれはCross Validationにはあたらない。 ここに書いてあるK-分割交差検定がこれに当たる。K-分割交差検定では開発用のデータをK個に分割しK-1個を訓練用に、残りの一つを検証用に使いモデルの正当性を計算する。 これにより使える訓練データが増えると同時に、こ
# -*- coding: utf-8 -*- from sklearn import datasets from sklearn.cross_validation import train_test_split from sklearn.grid_search import GridSearchCV from sklearn.metrics import classification_report, confusion_matrix from sklearn.svm import SVC ## データの読み込み digits = datasets.load_digits() X = digits.data y = digits.target ## トレーニングデータとテストデータに分割. X_train, X_test, y_train, y_test = train_test_spli
過去のデータから未来の数値を予測するちょっとしたツールを社内向けに作りました。単に学習済のモデルを使って予測値とグラフを表示するだけなら Jupyter Notebook でも良いのですが、非プログラマーが想定ユーザーだったので Web アプリケーションにしました。この方がユーザーとって不要な Python のコードが表示されませんし、データの追加・修正を安全に行うことができます。 仕様など 社内用のツールなので詳細は伏せますが、今回作るのは過去のデータから未来のデータを予測し、数値とグラフを表示します。過去データは手動で入力し、バッチ処理により学習と予測を行います。想定ユーザーは社内で1名のみ。予測結果は今後のユーザーが業務上で意思決定を行うときに参考データのひとつとして利用されます。 バージョンは下記の通りです。 $ python --version Python 3.6.2 :: A
MeanShift# class sklearn.cluster.MeanShift(*, bandwidth=None, seeds=None, bin_seeding=False, min_bin_freq=1, cluster_all=True, n_jobs=None, max_iter=300)[source]# Mean shift clustering using a flat kernel. Mean shift clustering aims to discover “blobs” in a smooth density of samples. It is a centroid-based algorithm, which works by updating candidates for centroids to be the mean of the points wit
Note Go to the end to download the full example code. or to run this example in your browser via JupyterLite or Binder Incremental PCA# Incremental principal component analysis (IPCA) is typically used as a replacement for principal component analysis (PCA) when the dataset to be decomposed is too large to fit in memory. IPCA builds a low-rank approximation for the input data using an amount of me
AffinityPropagation# class sklearn.cluster.AffinityPropagation(*, damping=0.5, max_iter=200, convergence_iter=15, copy=True, preference=None, affinity='euclidean', verbose=False, random_state=None)[source]# Perform Affinity Propagation Clustering of data. Read more in the User Guide. Parameters: dampingfloat, default=0.5Damping factor in the range [0.5, 1.0) is the extent to which the current valu
Note Go to the end to download the full example code. or to run this example in your browser via JupyterLite or Binder Simple 1D Kernel Density Estimation# This example uses the KernelDensity class to demonstrate the principles of Kernel Density Estimation in one dimension. The first plot shows one of the problems with using histograms to visualize the density of points in 1D. Intuitively, a histo
4.2.1. dictsからの特徴量のロード クラスDictVectorizerは、標準のPython dictオブジェクトのリストとして表される特徴量配列を、scikit-learn推定器で使用されるNumPy / SciPy表現に変換するために使用できます。 特に処理が速いわけではありませんが、Pythonのdictには、使いやすく、疎である(存在しない特徴を格納する必要はありません)、値に加えて特徴名を格納できるという利点があります。 DictVectorizerは、カテゴリ(または、名目、離散値)に対して、1対1のコーディングまたは「ワンホット」コーディングを実装ます。カテゴリ属性は、値に順番のない離散性のリスト(トピック識別子、オブジェクトのタイプ、タグ、名前など)に制限される「属性 - 値」のペアです。 以下では、「city」はカテゴリ属性であり、「temperature」は従
TOPICS Data Science , Database , AI/LLM 発行年月日 2018年04月 PRINT LENGTH 568 ISBN 978-4-87311-834-5 原書 Hands-On Machine Learning with Scikit-Learn and TensorFlow FORMAT 本書はコードを動かしながら学び、機械学習が使えるようになることを目的とした書籍です。現実的な問題を出し、サンプルデータを示しながら、機械学習で問題を解決に導くまでの一連の手法を体系立てて解説します。 深層学習以外の機械学習にはscikit-learnを使い、機械学習プロジェクトの流れ、データからモデルを学習する方法、コスト関数の最適化、データの処理・クリーニングなどの基礎から、特徴量の選択や過学習、データの次元削減など応用までを学びます。 深層学習にはTensorFl
FeatureAgglomeration# class sklearn.cluster.FeatureAgglomeration(n_clusters=2, *, metric='euclidean', memory=None, connectivity=None, compute_full_tree='auto', linkage='ward', pooling_func=<function mean>, distance_threshold=None, compute_distances=False)[source]# Agglomerate features. Recursively merges pair of clusters of features. Refer to Feature agglomeration vs. univariate selection for an e
CalibratedClassifierCV# class sklearn.calibration.CalibratedClassifierCV(estimator=None, *, method='sigmoid', cv=None, n_jobs=None, ensemble='auto')[source]# Probability calibration with isotonic regression or logistic regression. This class uses cross-validation to both estimate the parameters of a classifier and subsequently calibrate a classifier. With ensemble=True, for each cv split it fits a
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く