pandas-datareaderのis_list_likeがimportできない問題を解決(local,heroku)PythonHerokupandas

自分でネストしたリストや辞書をPandasデータフレームに格納しようとしてもうまく行かないことが多かった。この度、以下のリンクでJason形式をデータフレームに変換するPandasの機能を読んだ。 以下のやり方でも成功するまでに時間がかかったが、コツは「自分のネストの仕方をリンクのやり方に合わせること」だった。 Register as a new user and use Qiita more conveniently You get articles that match your needsYou can efficiently read back useful informationWhat you can do with signing up
herokuでPythonライブラリ(pandas,sklearnとか)を使えるようにするための方法PythonHerokupandassklearn ローカル(開発)環境で使うには これは、言わずもがなですが、コマンドからpipでインストールすればいいだけです。 herokuで使うには いくつか、ファイルを編集する必要があります。git pushはできたけど、ブラウザ開いたらModuleNotFoundErrorになった時は、これをする必要があるかもしれません。 まずは、 beautifulsoup4==4.6.1 certifi==2018.4.16 chainer==4.3.1 chardet==3.0.4 cycler==0.10.0 dj-database-url==0.5.0 Django==2.1 django-heroku==0.3.1 filelock==3.0.4 g
実行した環境 Ubuntu Stdio 18.04LTS Python 3.6.5 参考 How to convert OpenDocument spreadsheets to a pandas DataFrame? https://stackoverflow.com/questions/17834995/how-to-convert-opendocument-spreadsheets-to-a-pandas-dataframe pandas.read_excel()と言うExcelを読み込んだり、いろいろ出来る関数があるのを今日知ったのですが、私はUbuntuを使用しているので使えません。残念 それで色々検索していたら、LibreOffice Calcを読み込むパッケージがあると言うことで、インストールしました。 注意) 上記の参考にも書いてあるように、あくまでも実験の段階で、色々な機能
はじめに この記事ではQiita APIおよびScrapyによるクローリング、スクレイピングによってQiitaの記事データ(タイトル、「いいね」数、投稿日時など)を取得しCSVファイルとして保存する方法を紹介する。 基本的にはQiita APIを使うべきだが、「ストック」数ランキングに限ってはスクレイピングで取得するほうが簡単。 以降のQiita APIやQiitaのサイトについての記述はすべて2018年8月15日時点の仕様。 収集したデータの分析については以下。 Python, pandasによるデータ分析の実践 (Qiita記事データ編) ※普段は自分のサイトに書いているのですが、Qiitaのデータを使わせてもらった内容はQiitaに書くのが筋だろうと思いこちらに書くことにしました。 「いいね」と「ストック」 Qiitaには「いいね」と「ストック」がある。 もともとは「ストック」だけだ
はじめに この記事では、Qiitaの記事データを題材としたpandasによるデータ分析の実践例を紹介する。 Qiita APIを利用したデータの取得については以下の記事を参照。 Qiitaの記事データをQiita API, Scrapyで収集 対象とするのは2018年8月15日未明に取得した、それまでの全記事データ(32万件程度)。 以降のサンプルコードでは特定の列のみを読み込んで使う。 import collections import itertools import os import matplotlib.pyplot as plt import pandas as pd import seaborn as sns result_dir_path = 'results' df = pd.read_csv( os.path.join(result_dir_path, 'summary
-globを使ってファイルパスを生成します。 -プログレバーを表示したかったので、tqdmを利用しています。 -日本語が含まれるファイルパスで、それによるエラーを回避するため、engine='python'を追加しています。 -ちょうどindexにしたいものが、Unnamed: 0にあったので、set_index('Unnamed: 0')しています。 -あとあと、重複データがあると困るので、重複確認をしています。any().any()は速度上若干不利らしいですが、わかりやすいので、使っています。 import glob import sys import pandas as pd from tqdm import tqdm def csvs_to_one_df(path): df = pd.DataFrame() for file_path in tqdm(glob.glob(path)
100% 勝ってしまった QuantXでアルゴリズムを書く方法を投稿していたのですが,ふと100%勝てるシグナルが書けるんじゃない?と思って書いてみたら書けたというお話です. とりあえず結果を. 天国や Look-Ahead Bias コレは現実のシグナルでは絶対に起きない, Look-Ahead Biasという間違いです. 株価分析を行う上でのルックアヘッドとは,誤って将来の価格を分析対象に入れて予測を行ってしまうことを言います. QuantXのバックテストでは,(私の想像がただしければ)指定された全期間のヒストリカルデータを取得して売買シグナルを計算し,その後,該当日の買いシグナルおよび売りシグナルに基づいて損益を計算する仕様になっています. つまり,コードの書き方を間違うと,シグナル計算時に誤って将来のデータが入る可能性があるわけです. 実際のコードがこちらです. def initi
「ショート」のプランは,「延長料金が206円/15分の0時間(0円)パック」と言う風に捉えると,他の「○時間パック」と同じように計算できます. なお,複数のプランを組み合わせることはできません1.また,延長時間には上限があり,ショートの場合は72時間まで,パックの場合は6時間までです. (別途,初期費用や基本料金がかかる場合があります.また,36時間パック,48時間パック,60時間パックというプランが選択可能な車両もあります.詳細は公式サイトを参照してください) Pythonコード 各プランの定義 まず,pandasのDataFrameを使って金額を定義します.plansはプラン名の配列で,今後計算時のキーとして使います. import math import datetime as dt import pandas as pd # plan names plans = ['short',
上値抵抗性突破とは 過去N日間の株価終値の最高値を、今日の終値が突破した時、さらに上昇することを期待して買いポジションを持つストラテジーです。 とても簡単なアルゴリズムなので、コードも簡単に書けます。 シグナル 過去90日間の終値の最高値を今日の終値が突破した場合、ロングポジションを持つ。 手仕舞い 益出し:+5% 損切り:ー3% コード (昨日の勉強会で知ったのですが、QuantXのコードは公開+Cloneできるんですね。ログイン後、このリンクを辿って、上にあるクローンボタンをおしてクローンしてください。) clone : https://factory.quantx.io/developer/2729d13d204b4f2db1c08385ad5d13b0 #################################################################
この本は良い。原著のKindle版を持っているのに買ってしまった。 注意点と良い点を紹介する。 目次・内容 注意点 / こんな人にはオススメできない 英語版はオンラインで無料公開されている Pythonの基礎には触れられていない 良い点 / こんな人にオススメしたい NumPyの説明が(比較的)詳しい 新しいバージョンのpandasに対応 Matplotlibの説明が詳しく、サンプルが豊富 機械学習のアルゴリズムへの理解が深まる 類書との比較 『科学技術計算のためのPython入門』 『Pythonによるデータ分析入門』 まとめ 目次・内容 正式な書名は『Pythonデータサイエンスハンドブック ――Jupyter、NumPy、pandas、Matplotlib、scikit-learnを使ったデータ分析、機械学習』。 サブタイトルにある、Jupyter(IPython)、NumPy、pa
はじめに 統計開始以来最も暑い夏を生きる皆様,お疲れ様です.あまりに暑くてムシャクシャしたので,気象庁から約140年分(1872年1月1日-2018年7月21日)の東京の気温データを入手し,Prophetで分析しました. 以下は,過去365日分の最高気温の実測値と,2018年7月22日から1ヶ月先までの予測値を表したものです. また,以下は,最高気温のトレンドと年単位の周期性を表したものです. 分析の結果,平均・最高・最低気温の全てに関して,1920年付近から上昇し続けており,そのトレンドを考慮してもなお,ここ数日は特に暑いことを確認しました.分析に用いたNotebookはこちらです. 注:本記事は,2018年7月22日に個人サイトに投稿した記事を,Qiita向けに再構成したものです. 環境 macOS Sierra, 10.12.6 Python, 3.6.6 Prophet, 0.3
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く