エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Hadoop Archive: File Compaction for HDFS (Yahoo! Hadoop Blog)
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Hadoop Archive: File Compaction for HDFS (Yahoo! Hadoop Blog)
Thanks to Tsz-Wo Nicholas Sze and Mahadev Konar for this article. The Problem of Many Small Files... Thanks to Tsz-Wo Nicholas Sze and Mahadev Konar for this article. The Problem of Many Small Files The Hadoop Distributed File System (HDFS) is designed to store and process large (terabytes) data sets. At Yahoo!, for example, a large production cluster may have 14 PB disk spaces and store 60 millions of files. However, storing a large number of small files in HDFS is inefficient. We call a file sm