# CSV -> DataFrame df = pd.read_csv('/path/to/file.csv') # DataFrame -> Arrow Table table = pa.Table.from_pandas(df) # Arrow Table -> Parquet pq.write_table(table, '/path/to/file.pq')
![Parquet, CSV, Pandas DataFrameをPyArrow経由で相互変換する - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/7035636cf1d708dc7e8f5ec041662989a9aabda0/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9UGFycXVldCUyQyUyMENTViUyQyUyMFBhbmRhcyUyMERhdGFGcmFtZSVFMyU4MiU5MlB5QXJyb3clRTclQjUlOEMlRTclOTQlQjElRTMlODElQTclRTclOUIlQjglRTQlQkElOTIlRTUlQTQlODklRTYlOEYlOUIlRTMlODElOTklRTMlODIlOEImdHh0LWFsaWduPWxlZnQlMkN0b3AmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT01NiZzPWNhZjQ3OWM4NzMyMzU3MWY5YWRkNTk1OWE2Y2E0MTE1%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBzaGl1bWFjaGkmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPWJiNDVkYWQ4MjgxNzdjZTdjNmYwZDQ1NmRkMDE0YzM2%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3D27e911306e7f623d872350f325727b28)
id price total price_profit total_profit discount visible name created updated 1 20000 300000000 4.56 67.89 789012.34 True QuietComfort 35 2019-06-14 2019-06-14 23:59:59 方法1:PyArrowから直接CSVファイルを読み込んでParquet出力 まずは最もシンプルなPyArrowで変換する方法をご紹介します。入力ファイルのパス、出力ファイルのパス、カラムのデータ型定義の3つを指定するのみです。 処理の流れ PyArrowの入力ファイル名をカラムのデータ型定義に基づいて読み込みread_csv()、pyarrow.Tableを作成します。作成したpyarrow.Tableから出力ファイルに出力write_table()します
Announcing google-cloud-bigquery Version 1.17.0: Query Results to DataFrame 31x Faster with Apache Arrow Tim Swast on July 29, 2019; updated September 25, 2019 Upgrade to the latest google-cloud-bigquery and google-cloud-bigquery-storage packages to download query results to a DataFrame 4.5 times faster compared to the same method with version 1.16.0. If you aren't using the BigQuery Storage API y
In this post I discuss some recent work in Apache Arrow to accelerate converting to pandas objects from general Arrow columnar memory. Challenges constructing pandas DataFrame objects quickly One of the difficulties in fast construction of pandas DataFrame object is that the “native” internal memory structure is more complex than a dictionary or list of one-dimensional NumPy arrays. I won’t go int
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く