# 最大表示範囲を確認 pd.get_option("display.max_columns") pd.get_option("display.max_rows") # 表示範囲を指定(お好みで数値を設定) pd.set_option("display.max_columns",50) pd.set_option("display.max_rows",50) # その他のオプション dir(pd.options.display) # 実行結果 ['chop_threshold', 'colheader_justify', 'column_space', 'date_dayfirst', 'date_yearfirst', 'encoding', 'expand_frame_repr', 'float_format', 'height', 'html', 'large_repr', 'lat
(base) root@5d7f67ae9b0a:# ls bin boot dev etc handson-ml home lib lib64 media mnt opt proc root run sbin srv sys tmp usr var (base) root@5d7f67ae9b0a:/# cd handson-ml/ (base) root@5d7f67ae9b0a:/handson-ml# ls 01_the_machine_learning_landscape.ipynb book_equations.ipynb 02_end_to_end_machine_learning_project.ipynb datasets 03_classification.ipynb docker 04_training_linear_models.ipynb extra_autodi
初めに またdigitsネタ、一回目はこちら。同じデータをいろいろな方法を使用して、ごちゃごちゃ分析するのはデータ分析の基本中の基本(?)なので…。 Random Forestは、パラメータの寄与率まで出せるという利点があります。今回はdigitsをRandom Forestで学習させてみて、一回目で分析したPCAと比較していきたいと思います。 Random Forestを使ってみる # -*- coding: utf-8 -*- from sklearn import datasets from sklearn import ensemble from sklearn import metrics from sklearn import decomposition from sklearn.model_selection import train_test_split import ma
(base) root@5d7f67ae9b0a:# ls bin boot dev etc handson-ml home lib lib64 media mnt opt proc root run sbin srv sys tmp usr var (base) root@5d7f67ae9b0a:/# cd handson-ml/ (base) root@5d7f67ae9b0a:/handson-ml# ls 01_the_machine_learning_landscape.ipynb book_equations.ipynb 02_end_to_end_machine_learning_project.ipynb datasets 03_classification.ipynb docker 04_training_linear_models.ipynb extra_autodi
論文を読んでたら**PSNR(Peak signal-to-noise ratio:ピーク信号対雑音比)**を訓練の評価に使っていたのがあったので、実装してみました。画像の拡大、縮小といった超解像ではよく出てくる概念です。 ざっくり言ってPSNRって? (拡大や縮小、圧縮などで)画像がどれだけ劣化をしたかを示す値。値が小さいほど劣化していて、大きいほど元の画像に近い。 Wikipediaによると以下の式で定義されます。 $$PSNR=10\cdot\log_{10}\frac{MAX_I^2}{MSE} $$ 本来の定義はこの式です。MSEは2つの画像の画素ごとの平均2乗誤差、$MAX_I$は画素値の取りうる最大の値で、0~255なら255、0~1.0なら1です。機械学習では大抵0~1のスケールに変換するため、後者の$MAX_I=1$が多いと思います。 なぜこれが劣化の尺度になるのかという
python 初心者です。 1行に1つの数値データがある、長い行列のデータ群を規則に従って読み込んで、行列にする方法として、ベストな方法を検討しております。 <読み込みデータサンプル> 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 . . . と続くデータを、 次のような順番で並べて行列にしたいのですが。 <作りたい行列> 1 1 1 2 2 2 3 3 3 4 4 4 5 5 5.. 上記の数値は、場所を示しています。 実際のデータは、ランダムな実数が入っています。 python,numpy,pandas.. どれで、どのように読み込めば、シンプルなプログラムになるでしょうか? <考え方> 1.一旦全部読み込んで、その後並べる。 2.1行ずつ読み込みながら、行列に配置して行く。 読み込むデータ行数は、10万行以上の行数を想定しています。 アドバイスよろしくお願いいたします。
MLflow MLflowはオープンソースで、機械学習処理のライフサイクル管理を行うソフトウェアです。Kubernetesで管理している環境だとKubeflow、AWSならSageMakerとか、この分野の用途で利用できるものはいろいろあるかと思いますが、OSSでいろんなシーンで適用できそうです。 MLflow 現時点(2018/10/03)でバージョン0.7というのがリリースされており、絶賛開発中のようです。 MLflowは、要素として3つで構成されています。 MLflow Tracking : 学習の実行履歴管理 MLflow Projects : 学習処理の実行定義 MLflow Models : 学習モデルを用いたAPIサーバの実行定義 MLflow Tracking 学習モデル生成時に、生成されたモデルの実体や学習モデルの評価結果のスコア情報等を記録し、履歴管理する機能です。 学
MatplotlibでRuntimeError,ImportErrorになった時の対処法 経緯 Pythonの学習を進めている途中で以下のようなエラーにぶち当たり、色々試行錯誤して理解しました。せっかくなのでそれを解決するに至ったストーリーをQiitaの練習がてら残します。。。 該当のコード /Users/MYNAME/.pyenv/versions/anaconda3-5.1.0/envs/Pycharm_test/bin/python /Users/MYNAMEo/math_training/liner_function Traceback (most recent call last): File "/Users/MYNAME/math_training/liner_function", line 3, in <module> import matplotlib.pyplot as
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く