PC の HDD を SSD に変更したので、I/Oスケジューラを noop に変更してみた。 SSD は HDD のようにシーク(目的のレコードが記憶されたシリンダにヘッドを移動)したり、サーチ(目的のセクタの先頭がヘッドの位置に来るのを待つ)したり、物理的な動きはない。なので、OSのI/OスケジューラでソートなんかせずにI/Oリクエストを渡してくれたほうが速いとという話だと思う。 簡単に noop が速いことを検証した上で、noop に変更した。 cfq I/Oスケジューラを cfq に設定する [root@yazekats-linux queue]# echo cfq > /sys/block/sda/queue/scheduler [root@yazekats-linux queue]# cat /sys/block/sda/queue/scheduler noop deadlin
Optimizing SSD random IOPS The script Some time ago I was asked how to max out the random IO performance of an SSD RAID0 array. Here is what I came with after experimenting with fio and perf top. ls /sys/class/block/|while read device do # SSD random iops are better with no scheduler if [ -f /sys/class/block/$device/queue/scheduler ]; then echo noop> /sys/class/block/$device/queue/scheduler fi # I
Fusion-io Confidential—Copyright © 2013 Fusion-io, Inc. All rights reserved. Fusion-io Confidential—Copyright © 2013 Fusion-io, Inc. All rights reserved. High Performance I/O with NUMA Systems in Linux Lance Shelton How prevalent is NUMA? ▸ All major vendors • HP, Dell, IBM, Cisco, SuperMicro, Hitachi, etc. ▸ As small as 1U ▸ 2, 4, and 8 socket systems ▸ 2 to 10 cores per socket ▸ Number of cores
latency.txt :�]�U Latency Comparison Numbers (~2012) ---------------------------------- L1 cache reference 0.5 ns Branch mispredict 5 ns L2 cache reference 7 ns 14x L1 cache Mutex lock/unlock 25 ns Main memory reference 100 ns 20x L2 cache, 200x L1 cache Compress 1K bytes with Zippy 3,000 ns 3 us Send 1K bytes over 1 Gbps network 10,000 ns 10 us Read 4K randomly from SSD* 150,000 ns 150 us ~1GB/se
日本アニメ初の快挙!海外アニメ賞を受賞した『スキップとローファー』海外ライセンス部長&プロデューサーが語る、奮闘の舞台裏
次期Linuxカーネルバージョン3.10の目玉機能のひとつになるとみられる「bcache」がカーネルソースツリーにマージされた。bcacheはLinuxのカーネルレベルで動作するブロックレイヤキャッシュの実装系。特定のデバイスを他のデバイスのキャッシュとして利用できるという機能。ここでは主にHDDのキャッシュとしてSSDを活用するケースが想定されている。 bcacheが提供するキャッシュ機能はZFSのL2Arcの動作に似ているが、bcacheはライトバックに関してもキャッシュを実施するという違いがある。デフォルトの設定ではシーケンシャルアクセスに対してはキャッシュを提供せず、ランダムI/Oに対してキャッシュを提供する。SSDの特性を活かし、もっとも効果がでるケースでSSDを動作させる。実装はトランスパレントになっており、利用するにあたってアプリケーションやユーザ側に変更の必要はない。 bc
先日、Amazon EC2で使える、2TB分のSSDを積んだ新しいインスタンスタイプ(High I/O Instances / High I/O Quadruple Extra Large Instance)が発表されました。 ディスクI/O性能が高速なインスタンスは初登場なので、I/Oがシビアに要求されるデータベース等の利用においては、期待を寄せちゃいますよねー。 http://aws.typepad.com/aws_japan/2012/07/aws%E7%99%BA%E8%A1%A8-new-high-io-ec2-instance-type-hi14xlarge-2-tb-of-ssd-backed-storage.html というわけで、このSSDのディスクI/Oパフォーマンスがどのくらい速いのかを試してみちゃいました。厳密なベンチマークではないですが、参考になれば幸いです。 ・
Fusion IO が,Auto Commit Memory という新技術のプレスリリースをした.プレスリリースによると,数十億 IOPS という驚異的な性能が出るということだが,PCI Express の Bus を介して毎回 commit しているとすると,明らかに物理性能を超えており,ホントにデータの永続化が保証されているか気になったのでメモしておく.根拠は全て書いているが,ところどころに私の予想が入っているため,正しさは保証できないので注意されたし. まず,数十億 IOPS を達成するには,PCI Express の bus を介していたら間に合わない.しかし,特殊なハードウェアを使っているわけではなく,プレスリリースには HP ProLiant DL 370 + ioDrive2 Duos を使っていると記述されている. (プレスリリースから引用 http://www.fusio
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く