エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
HadoopでPython使ってテストしてみた - その2 - もちおのWEBアプリ開発日記
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
HadoopでPython使ってテストしてみた - その2 - もちおのWEBアプリ開発日記
前回の続き Pythonで[mapper]と[reducer]を作ったところから ファイルシステムのフォーマットを行います... 前回の続き Pythonで[mapper]と[reducer]を作ったところから ファイルシステムのフォーマットを行います。 hadoop@ubuntu-vm:~$ hadoop namenode -format hadoop@ubuntu-vm:~$ start-all.sh hadoop@ubuntu-vm:~$ jps 9258 TaskTracker 9043 SecondaryNameNode 17131 Jps 8885 DataNode 8751 NameNode 9122 JobTracker jpsコマンドが上記のようになっていればOKです。 今度は[HDFS]というファイルシステムに前回作ったサンプルデータを登録します。 データ量が多い場合は時間が結構かかります。 hadoop@ubuntu-vm:~$ hadoop dfs -copyFromLocal input i