Contributing- Ways to contribute, Automated Contributions Policy, Submitting a bug report or a feature request- How to make a good bug report., Contributing code- Video resources, How to contribute...
learning_curve# sklearn.model_selection.learning_curve(estimator, X, y, *, groups=None, train_sizes=array([0.1, 0.33, 0.55, 0.78, 1.]), cv=None, scoring=None, exploit_incremental_learning=False, n_jobs=None, pre_dispatch='all', verbose=0, shuffle=False, random_state=None, error_score=nan, return_times=False, fit_params=None, params=None)[source]# Learning curve. Determines cross-validated training
3.4. Metrics and scoring: quantifying the quality of predictions# 3.4.1. Which scoring function should I use?# Before we take a closer look into the details of the many scores and evaluation metrics, we want to give some guidance, inspired by statistical decision theory, on the choice of scoring functions for supervised learning, see [Gneiting2009]: Which scoring function should I use? Which scori
LinearDiscriminantAnalysis# class sklearn.discriminant_analysis.LinearDiscriminantAnalysis(solver='svd', shrinkage=None, priors=None, n_components=None, store_covariance=False, tol=0.0001, covariance_estimator=None)[source]# Linear Discriminant Analysis. A classifier with a linear decision boundary, generated by fitting class conditional densities to the data and using Bayes’ rule. The model fits
クラスタリング:観測値をまとめてグループ化する クラスタリングで解決された問題 虹彩データセットが与えられた場合、3種類の虹彩があるが、タキソノミストにラベルを付けるためのアクセス権がない場合、クラスタリングタスクを試すことができます:観測をクラスタと呼ばれるよく分離されたグループに分割します。 K平均クラスタリング 異なるクラスタリング基準および関連するアルゴリズムが多数存在することに注意してください。最も単純なクラスタリングアルゴリズムは K平均 である。 >>> from sklearn import cluster, datasets >>> iris = datasets.load_iris() >>> X_iris = iris.data >>> y_iris = iris.target >>> k_means = cluster.KMeans(n_clusters=3) >>
【翻訳】scikit-learn 0.18 チュートリアル 科学的データ処理のための統計学習のチュートリアル すべてを一緒に入れてPython機械学習MachineLearningscikit-learn from sklearn import linear_model, decomposition, datasets from sklearn.pipeline import Pipeline from sklearn.model_selection import GridSearchCV logistic = linear_model.LogisticRegression() pca = decomposition.PCA() pipe = Pipeline(steps=[('pca', pca), ('logistic', logistic)]) digits = datasets.l
http://scikit-learn.org/0.18/tutorial/statistical_inference/index.html をgoogle翻訳した。 scikit-learn 0.18 チュートリアル 目次 前のチュートリアル 統計学習 実験的な科学のデータセットのサイズが急速に拡大しているため、機械学習は重要性が増している技術です。さまざまな観測をリンクする予測関数を構築することから、観測を分類すること、またはラベル付けされていないデータセットの構造を学習することまで、さまざまな問題に取り組んでいます。 このチュートリアルでは、データを手がかりにした統計的学習の結果、統計的推論を目的とした機械学習技術の使用を紹介します。 scikit-learn は、古典的な機械学習アルゴリズムを科学Pythonパッケージ( NumPy 、 SciPy 、 matplotlib )の緊
http://scikit-learn.org/0.18/tutorial/machine_learning_map/index.html をgoogle翻訳した チュートリアル 目次 / 前のチュートリアル 適切な推定器の選択 多くの場合、機械学習の問題を解決する最も難しい部分は、その仕事のための正しい推定器を見つけることです。 データの種類や問題ごとに、適した推定器は異なります。 以下のフローチャートは、どの推定器でデータを試してみるかという大まかなガイドをユーザーに提供することを目的としています。 下の図の見積もりをクリックすると、そのドキュメントが表示されます。(訳注:クリックできません) scikit-learnアルゴリズムチートシート 開始 サンプルが50以上あるか? NO → もっとデータを集めましょう yes ↓ カテゴリを推定したい? Yes → ラベル付けされた教師デー
http://scikit-learn.org/0.18/presentations.html を google翻訳した チュートリアル 目次 / 前のチュートリアル 外部リソース、ビデオ、トーク 書かれたチュートリアルについては、ドキュメントのチュートリアルのセクションを参照してください。 初めて科学的なPythonをお使いですか? 科学的なPythonエコシステムを新しく始めるときは、 Python Scientific Lecture Notes(訳注:日本語訳版がここに ) を強くお勧めします。これは、あなたの基礎を少し見つけるのを助け、間違いなくあなたの scikit-learn を学ぶ経験を向上させます。 scikit-learnを最大限に活用するには、NumPy配列の基本的な理解が推奨されます。 外部チュートリアル 特定の科目分野に合わせたオンラインチュートリアルがいくつか用
http://scikit-learn.org/0.18/modules/model_persistence.html を google翻訳した scikit-learn 0.18 ユーザーガイド 3. モデルの選択と評価 より 3.4. モデルの永続化 scikit-learn モデルを訓練した後、再学習することなく将来の使用のためにモデルを持続させる方法が望ましい。次のセクションでは、pickleでモデルを永続化する方法の例を示します。また、pickleシリアル化の作業時に、セキュリティと保守性に関するいくつかの問題を確認します。 3.4.1. 永続性の例 Pythonの組み込み永続化モジュール、つまり pickle を使って、scikitモデルを保存することは可能です: >>> from sklearn import svm >>> from sklearn import datas
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く