エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Apache Spark User List - S3NativeFileSystem inefficient implementation when calling sc.textFile
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Apache Spark User List - S3NativeFileSystem inefficient implementation when calling sc.textFile
Hello, I'm building a spark app required to read large amounts of log files from s3. I'm doing so... Hello, I'm building a spark app required to read large amounts of log files from s3. I'm doing so in the code by constructing the file list, and passing it to the context as following: val myRDD = sc.textFile("s3n://mybucket/file1, s3n://mybucket/file2, ... , s3n://mybucket/fileN") When running it locally there are no issues, but when running it on the yarn-cluster (running spark 1.1.0, hadoop 2.4