GNUのcpを使って大量のファイルをコピーしたところ、cpの設計上の問題で、極めてコピーが遅かったというお話。 My experience with using cp to copy a lot of files (432 millions, 39 TB) よう。俺は最近、大量のファイルをコピーする必要があったんだが、UNIXは20年もやってきた俺の経験からも、cpの挙動には驚かされたし、俺の意見はコミュニティに共有されるべきだと思う。 環境:古いDellのサーバー(2コア、初期メモリ2GB、追加して10GB、Ubuntu Trusty)と、新しいDellのストレージ格納機(MD 1200)にある、12個の4TBディスクでRAID 6が設定してあって、全体で40TBの要領を持ち、二つのドライブが同時に失敗しても問題ない環境。サーバーは遠隔地バックアップに使われていて、ディスクへの書き込みし
必要になるものをインストール$ sudo apt-get install autoconf build-essential curl dkms git-core libboost-all-dev libccid libpcsclite1 libpcsclite-dev libssl-dev libtool linux-headers-`uname -r` pcsc-tools pcscd pkg-config unzip yasmここでは一度にまとめてインストールしていますが、各セクション毎に必要なパッケージをインストールした方がいいと思います。 カードリーダ動作確認をします。 $ pcsc_scan # Japanese Chijou Digital B-CAS Card (pay TV)B-CASが認識されていることが確認できたら[Ctrl]+[C]にて終了。 PT3のドライバGitか
Distributed Consensus A.K.A. "What do we eat for lunch?" Distributed Consensus is everywhere! Even if not obvious at first, most apps nowadays are distributed systems, and these sometimes have to "agree on a value", this is where consensus algorithms come in. In this session we'll look at the general problem and solve a few example cases using the RAFT algorithm implemented using Akka's Actor and
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く