ℹ️本記事は古いコンテンツを変換して表示しています。
表示が崩れたり、リンクが正しくない可能性があります。ご了承ください。
ℹ️本記事は古いコンテンツを変換して表示しています。
表示が崩れたり、リンクが正しくない可能性があります。ご了承ください。
2016/06/17 17:06 : GlusterFSをESXiから使う(3) 書き込み速度測定
実運用を想定して、ESXiの仮想マシンを乗っけてdd
で計ってみた。結果は大体20MB/sくらいは出ているのでセーフな範囲。もう少し速いとうれしい。
速度を気にするならstripeも測るべきだけど出てこないのは、またバグっぽいものを見つけたから。こっちはまた追ってまとめる。
実運用を想定して、ESXiの仮想マシンを乗っけてdd
で計ってみた。結果は大体20MB/sくらいは出ているのでセーフな範囲。もう少し速いとうれしい。
速度を気にするならstripeも測るべきだけど出てこないのは、またバグっぽいものを見つけたから。こっちはまた追ってまとめる。
条件いろいろ。
/mnt/data
はiSCSI経由でそれぞれ別のNASに接続。ZFSのZIL(log)とL2ARC(cache)をノード上のHDDに指定して、ZVOL上にUFSを作っている。dd if=/dev/zero of=/dev/da1 bs=65536
による。10回測定。ボリュームの構成は3種類試してみた。
Single |
# gluster vol create gv0 10.0.0.1:/mnt/data/brick |
---|---|
Replica 2 |
# gluster vol create gv0 replica 2 10.0.0.1:/mnt/data/brick 10.0.0.2:/mnt/data/brick |
Disperse 3 |
# gluster vol create gv0 disperse 3 redundancy 1 10.0.0.1:/mnt/data/brick 10.0.0.2:/mnt/data/brick 10.0.0.3:/mnt/data/brick |
中央値6個の平均は以下の通り。単位はbyte/sec。別ノードと通信しないSingleがやや早い。
Single | Replica 2 | Disperse 3 |
---|---|---|
28,670,396 | 20,138,774 | 21,131,990 |
ちなみに生データ。こちらも単位はbyte/sec。中央値処理の為にソート済み。8GBも書いているからか、大きなバラつきはない模様。
Single | Replica 2 | Disperse 3 |
---|---|---|
26,766,310 | 18,828,979 | 19,826,040 |
27,617,969 | 18,966,455 | 20,091,941 |
27,636,101 | 19,237,992 | 20,740,261 |
28,142,674 | 19,668,180 | 21,079,484 |
28,423,709 | 19,904,223 | 21,080,437 |
29,019,394 | 20,034,735 | 21,137,484 |
29,109,941 | 20,818,509 | 21,261,837 |
29,690,557 | 21,169,007 | 21,492,439 |
30,513,710 | 21,365,170 | 21,911,347 |
31,736,206 | 21,894,438 | 22,051,744 |