#はじめに Apache Spark勉強用に、Windows上にSpark環境作ってアプリケーション(とりあえずScala)を作成/コンパイル/実行する、という所までやってみます。 色々眺めていると開発環境としてはIntelliJ, Eclipseあたりが主流なようです。あとはJupyter Notebook? 合わせてビルドツールとしてsbt, mavenなどが使われたりするようです。が、素人には初モノの要素が盛りだくさんすぎてアワアワしはじめたので、最低限sbtだけ使ってまずは動かす所までの手順を整理しておきます。 #環境構築 ##Apache Sparkのインストール この辺の記事を参考にSparkをインストールします。 Sparkアプリケーションの基本と、はじめに押さえておきたい重要な概念 まずはApacheのサイトからダウンロード。 https://spark.apache.or