virtualenvはPythonの仮想的な環境を作ることができるパッケージ。 プロジェクトごとにPythonのバージョンを変えたり、必要なパッケージを分けてインストールして動かす事ができるようになります。 インストール virtualenvをインストールする
Windows版Dockerのお話。(macでは起きたことがない) docker: Error response from daemon: Get https://registry-1.docker.io/v2/: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers). こんなエラーが起きてイメージが取得できなかった。 ネットにはつないでいるし、変なブロックはしていない。(つもり) 解決 Dockerの設定を開いてNetworkを参照 DNS Server での設定のAutomaticを止めて、Fixedの8.8.8.8に切り替えた。 その後dockerコマンドを実行して無事イメージの取得に成功しました。
(1-2)それでダメなら… もう一度インストールしてもダメな場合は、環境変数PATHの設定を見直したいところです。ただ、あなたの環境でPythonがどこにインストールされているかわからないので、近くの専門家に相談するのが近道でしょう。 (2)モジュールが利用できない場合のPATH設定を確認しよう 「python」と入力するとPythonは起動できるけど、続けて「import mymodule」と入力すると、以下のように何も表示されないはずが… (OpenCV) D:>python Python 3.6.5 |Anaconda, Inc.| (default, Mar 29 2018, 13:32:41) [MSC v.1900 64 bit (AMD64)] on win32 Type "help", "copyright", "credits" or "license" for more
クロス集計実行手順まずは、クロス集計作成に必要なライブラリとデータ(log2017.csv)の読み込みます。 import pandas as pd df = pd.read_csv("log2017.csv")ここからクロス集計表の作成部分です。 作成するには pd.pivot_table( [データフレーム名], values="①_集計したい項目", index="②_行に設定したい集計キー", columns="③_列に設定したい集計キー", aggfunc="④_集計方法" )とコードを書きましょう。 コード内の①~④については下図Excelのピボットテーブルのフィールド機能の各設定項目箇所を示しております。 例えば、クロス集計表の「行」部分に「購入月」を設定したい場合は values=”購入月” と引数を設定する必要がある、ということです。 それでは、各クロス集計表の作成を進め
最近データ分析が流行っているので、コードのサンプルを示しながら分析していこうと思います。 コードを 実行環境はPython3になります。 この記事では以下のことをやります。 CSVを読み込む 簡単なカラムの変換を行う いろいろな視点で集計・描画を行う 描画に当たっては、 Seaborn を利用します。 Seaborn: statistical data visualization 用いるデータ 分析対象のデータは以下とします。 datetime, id, value 20170606121314, 1,2 20170606121315, 1,3 20170606121316, 1,4 20170608121616, 1,4 20170608121617, 1,1 20170608121618, 1,2 20170606121540, 2,10 20170606121541, 2,8 201
何かデータ分析を行わなければいけないとき、手軽に分析環境を用意したいというニーズがあります。 Jupyter Notebook上でnumpy、pandas、matplotlib、scikit-learnあたりが使えれば十分でしょうか。XGBoostやLightGBMといったライブラリも使えるようにしておきたいという人もいるかと思います。 一方、ローカルにいろいろなライブラリをインストールしていくと、次第に環境が汚れていってライブラリの衝突などが起こりやすくなってしまいます。 KaggleにはKernelという計算環境があり、そこには主要な機械学習ライブラリが予めインストールされています。データ分析をやっていく上で不自由はありません。今回はDockerとdocker-composeを使ってKaggle Kernelを手元に再現し、ポータブルな分析環境として使う方法を紹介します。 データ分析界
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く