りんけーじ - blog

ℹ️本記事は古いコンテンツを変換して表示しています。

表示が崩れたり、リンクが正しくない可能性があります。ご了承ください。

2016/06/17 17:06 : GlusterFSをESXiから使う(3) 書き込み速度測定

実運用を想定して、ESXiの仮想マシンを乗っけてddで計ってみた。結果は大体20MB/sくらいは出ているのでセーフな範囲。もう少し速いとうれしい。

速度を気にするならstripeも測るべきだけど出てこないのは、またバグっぽいものを見つけたから。こっちはまた追ってまとめる。

実運用を想定して、ESXiの仮想マシンを乗っけてddで計ってみた。結果は大体20MB/sくらいは出ているのでセーフな範囲。もう少し速いとうれしい。

速度を気にするならstripeも測るべきだけど出てこないのは、またバグっぽいものを見つけたから。こっちはまた追ってまとめる。

条件いろいろ。

  • ノードは10.0.0.1、10.0.0.2、10.0.0.3の3台。
  • アクセス元は上記の通りVMware ESXi上のVMで、8GBの仮想ハードディスクをNFSデータストア上に配置している。アクセス先には全ケースで10.0.0.1上のNFS(glusterfs組み込み)を使用。
  • 各ノードの/mnt/dataはiSCSI経由でそれぞれ別のNASに接続。ZFSのZIL(log)とL2ARC(cache)をノード上のHDDに指定して、ZVOL上にUFSを作っている。
  • 測定はdd if=/dev/zero of=/dev/da1 bs=65536による。10回測定。

ボリュームの構成は3種類試してみた。

Single

# gluster vol create gv0 10.0.0.1:/mnt/data/brick

Replica 2

# gluster vol create gv0 replica 2
  10.0.0.1:/mnt/data/brick
  10.0.0.2:/mnt/data/brick

Disperse 3

# gluster vol create gv0 disperse 3 redundancy 1
  10.0.0.1:/mnt/data/brick
  10.0.0.2:/mnt/data/brick
  10.0.0.3:/mnt/data/brick

中央値6個の平均は以下の通り。単位はbyte/sec。別ノードと通信しないSingleがやや早い。

SingleReplica 2Disperse 3
28,670,39620,138,77421,131,990

ちなみに生データ。こちらも単位はbyte/sec。中央値処理の為にソート済み。8GBも書いているからか、大きなバラつきはない模様。

SingleReplica 2Disperse 3
26,766,31018,828,97919,826,040
27,617,96918,966,45520,091,941
27,636,10119,237,99220,740,261
28,142,67419,668,18021,079,484
28,423,70919,904,22321,080,437
29,019,39420,034,73521,137,484
29,109,94120,818,50921,261,837
29,690,55721,169,00721,492,439
30,513,71021,365,17021,911,347
31,736,20621,894,43822,051,744