![](https://cdn-ak-scissors.b.st-hatena.com/image/square/4cd620db1d3302048485d22ac01b5cc91843dbaa/height=288;version=1;width=512/https%3A%2F%2Fcdn.slidesharecdn.com%2Fss_thumbnails%2F20170927pydatatokyopyspark-170928130546-thumbnail.jpg%3Fwidth%3D640%26height%3D640%26fit%3Dbounds)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
20170927 pydata tokyo データサイエンスな皆様に送る分散処理の基礎の基礎、そしてPySparkの勘所
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
20170927 pydata tokyo データサイエンスな皆様に送る分散処理の基礎の基礎、そしてPySparkの勘所
This document discusses PySpark and how it relates to Spark, Hadoop, and Python for data analysis... This document discusses PySpark and how it relates to Spark, Hadoop, and Python for data analysis (PyData). PySpark allows users to write Spark programs using Python APIs, access Spark functionality from Python, and interface between Spark and PyData tools like pandas. It also covers Spark file formats like Parquet that can improve performance when used with PySpark and PyData tools.