実運用を想定して、ESXiの仮想マシンを乗っけてdd
で計ってみた。
結果は大体20MB/sくらいは出ているのでセーフな範囲。もう少し速いとうれしい。
速度を気にするならstripeも測るべきだけど出てこないのは、またバグっぽいものを見つけたから。
こっちはまた追ってまとめる。
条件いろいろ。
- ノードは10.0.0.1、10.0.0.2、10.0.0.3の3台。
- アクセス元は上記の通りVMware ESXi上のVMで、8GBの仮想ハードディスクをNFSデータストア上に配置している。
アクセス先には全ケースで10.0.0.1上のNFS(glusterfs組み込み)を使用。 - 各ノードの
/mnt/data
はiSCSI経由でそれぞれ別のNASに接続。
ZFSのZIL(log)とL2ARC(cache)をノード上のHDDに指定して、ZVOL上にUFSを作っている。 - 測定は
dd if=/dev/zero of=/dev/da1 bs=65536
による。10回測定。
ボリュームの構成は3種類試してみた。
Single |
# gluster vol create gv0 10.0.0.1:/mnt/data/brick |
---|---|
Replica 2 |
# gluster vol create gv0 replica 2 10.0.0.1:/mnt/data/brick 10.0.0.2:/mnt/data/brick |
Disperse 3 |
# gluster vol create gv0 disperse 3 redundancy 1 10.0.0.1:/mnt/data/brick 10.0.0.2:/mnt/data/brick 10.0.0.3:/mnt/data/brick |
中央値6個の平均は以下の通り。単位はbyte/sec。
別ノードと通信しないSingleがやや早い。
Single | Replica 2 | Disperse 3 |
---|---|---|
28,670,396 | 20,138,774 | 21,131,990 |
ちなみに生データ。こちらも単位はbyte/sec。中央値処理の為にソート済み。
8GBも書いているからか、大きなバラつきはない模様。
Single | Replica 2 | Disperse 3 |
---|---|---|
26,766,310 | 18,828,979 | 19,826,040 |
27,617,969 | 18,966,455 | 20,091,941 |
27,636,101 | 19,237,992 | 20,740,261 |
28,142,674 | 19,668,180 | 21,079,484 |
28,423,709 | 19,904,223 | 21,080,437 |
29,019,394 | 20,034,735 | 21,137,484 |
29,109,941 | 20,818,509 | 21,261,837 |
29,690,557 | 21,169,007 | 21,492,439 |
30,513,710 | 21,365,170 | 21,911,347 |
31,736,206 | 21,894,438 | 22,051,744 |