やったのは 生ログが1行jsonのデータでhdfsにある 生ログをspark RDDとして読み込み RDDをparseして、dfに変換 dfをparquet formatでhive tableにsaveしてあとでhive tableとして引けるようにする。 import scala.collection.mutable.HashMap import org.apache.spark._ import org.apache.spark.sql.SQLContext import org.apache.spark.sql.functions._ import org.apache.spark.sql.hive.HiveContext val options = new HashMap[String, String] options.put("spark.hadoop.mapred.output
![spark sqlのdataframeをhive tableとしてparquet formatで圧縮して保存するには - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/68118783dc217b56673f5cea44835fb796e7715c/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9c3BhcmslMjBzcWwlRTMlODElQUVkYXRhZnJhbWUlRTMlODIlOTJoaXZlJTIwdGFibGUlRTMlODElQTglRTMlODElOTclRTMlODElQTZwYXJxdWV0JTIwZm9ybWF0JUUzJTgxJUE3JUU1JTlDJUE3JUU3JUI4JUFFJUUzJTgxJTk3JUUzJTgxJUE2JUU0JUJGJTlEJUU1JUFEJTk4JUUzJTgxJTk5JUUzJTgyJThCJUUzJTgxJUFCJUUzJTgxJUFGJnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmcz02OGQ0MTQ0NTg5NGYzNGJjOGEzZmMyYWY0YzcyMGNkOA%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDByaWtpbWEmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTk2YTEzZTViMmRmOWFiZjBiOTkwOWVhMjhhNGZkZGYw%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3Da6678d382513d0884093f673ea37c9bb)