タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

Pythonとdataframeに関するyukirelaxのブックマーク (3)

  • Python pandas 図でみる データ連結 / 結合処理 - StatsFragments

    なんかぼやぼやしているうちにひさびさの pandas エントリになってしまった。基的な使い方については網羅したい気持ちはあるので、、、。 今回は データの連結 / 結合まわり。この部分 公式ドキュメント がちょっとわかりにくいので改訂したいなと思っていて、自分の整理もかねて書きたい。 公式の方はもう少し細かい使い方も載っているのだが、特に重要だろうというところだけをまとめる。 連結 / 結合という用語は以下の意味で使っている。まず憶えておいたほうがよい関数、メソッドは以下の 4 つだけ。 連結: データの中身をある方向にそのままつなげる。pd.concat, DataFrame.append 結合: データの中身を何かのキーの値で紐付けてつなげる。pd.merge, DataFrame.join 連結 (concatenate) 柔軟な連結 pd.concat ふたつの DataFram

    Python pandas 図でみる データ連結 / 結合処理 - StatsFragments
  • pandasメモ - Qiita

    s1 = pd.Series([1,2,3,4,5], index=[0,1,2,3,4]) s2 = pd.Series([10,20,30,40,50], index=[10,11,12,13,14]) s3 = pd.Series([100,200,300,400,500], index=[0,2,4,6,8]) print pd.concat([s1, s2, s3], axis=1) """ 0 1 2 0 1 NaN 100 1 2 NaN NaN 2 3 NaN 200 3 4 NaN NaN 4 5 NaN 300 6 NaN NaN 400 8 NaN NaN 500 10 NaN 10 NaN 11 NaN 20 NaN 12 NaN 30 NaN 13 NaN 40 NaN 14 NaN 50 NaN """

    pandasメモ - Qiita
    yukirelax
    yukirelax 2018/01/14
    カテゴリカルデータを変換
  • Spark DataframeのSample Code集 - Qiita

    はじめに:Spark Dataframeとは Spark Ver 1.3からSpark Dataframeという機能が追加されました。特徴として以下の様な物があります。 Spark RDDにSchema設定を加えると、Spark DataframeのObjectを作成できる Dataframeの利点は、 SQL風の文法で、条件に該当する行を抽出したり、Dataframe同士のJoinができる filter, selectというmethodで、条件に該当する行、列を抽出できる groupBy → aggというmethodで、Logの様々な集計ができる UDF(User Defined Function)で独自関数で列に処理ができる SQLで言うPivotもサポート (Spark v1.6からの機能) つまり、RDDのmapやfilterでシコシコ記述するよりもSimple Codeで、且つ高

    Spark DataframeのSample Code集 - Qiita
    yukirelax
    yukirelax 2018/01/12
    絞込みなど
  • 1