次期ファイルサーバ用の構成のテスト
H67MA-E45だとFreeBSDが起動しないとか,いろいろトラブルに見舞われつつも,次期ファイルサーバとして運用すべくいろいろとテスト中.
マザーボードの入れ替えは終わったので,今度はストレージの方.旧マザーの方で次期ファイルサーバのストレージ構成をテストしてみたので結果を.
【CPU】 i3 530 1.86GHz 【M/B】 DH55TC 【電源】KRPW-V600W 【FAN】 120mm*2 【VGA】 オンボード 【HDD】 SHD-NSUM60G, WD30EZRS*3,WD30EZRX*3 【メモリ】 DDR3 1333 2GB*4 【Sound】 オンボ 【SATA】LSI SAS 9211-8i 【LAN】 オンボ(82758DC) 【OS】 FreeBSD 9.0-CURRENT 【光学ドライブ】なし
初めて,8portのインターフェースカードを導入してみた.mini-SASのケーブルは内部の配線がすっきりするので便利.
ここでのポイントはWDの4k通知タイプのディスクを使ってみたことで,どうなるのかなというあたり.ただ,結局のところSATAにつなぐと物理4kの取得が出来るけど,9211-8i経由だとcamcontrol identifyでもcamcontrol inqueryでも,物理セクターサイズの取得は出来ないから期待通りの効果はなさそう.
で,ベンチマーク.今回はddを使ったシーケンシャルアクセスのスピードを各種構成で測定してみた.
具体的にはメモリが8GBなので,ARCがあふれるように16GBのデータを読み書きするスピードを計測し,10回測定した平均を記載.
グラフの中で,w/4kとあるのは
gnop -S 4096 <disk>
として,4kセクタとして無理やり認識させた場合のアクセススピード.
一見してわかるように,4kセクタとして認識させた方がストライピング構成(raid0)でも,raidz構成でも明確に速い.単独だと2割程度だけど,ディスク数が増えるにつれて差が拡がる.
面白いのは,raidzの方で何も考えずに認識させると5個ディスクを使ったところでreadの性能がガタっと落ちること.この問題は他のところでも指摘されてたのだけど,本当にそうなんだと驚いた.
あと,ほぼ常にwriteの方が性能良いのは何故なんだろう?atimeを切ってもつけても変わりなかった(グラフはatimeを切って測定).