Java で Apache Spark を使用 や Scala 2.10 で Apache Spark を使用 に続き、今回は Groovy で同様の処理を実装してみました。 Apache Spark 1.0 money_count.groovy @Grab('org.apache.spark:spark-core_2.10:1.0.0') import org.apache.spark.api.java.JavaSparkContext def spark = new JavaSparkContext('local', 'MoneyCount') spark.textFile(args[0]).countByValue().each { k, v -> println "$k = $v" } 今回のように値毎のカウントを取得するだけなら countByValue() を使うと簡単です。