Samsung HDD復帰

RMAから帰ってきて取り付けてみたら快調.smartcrtlによるテストもshort,longともに問題なし.結局電源の問題だった模様.

当初予定通りRAID5(後から考えればRAID1の方がよかったかも)を組んでLVMを通して,ファイル共有用のLVと,タイムマシン用のLVを作成する.タイムマシン用に別ボリュームを作っておくと勝手に以前のバックアップを消してくれるんじゃないかと期待しているがどうだろう(今までは,全部使い切るかディスクイメージの天井に到達するとエラーになって止まるかだったりした).

冗長性はRAIDで確保しつつ,バックアップを現在1日置きのrsyncでとっているのをsnapshotに変えるというのを目標に,RAID作成後は,バックアップスクリプトrsyncのものからsnapshotを使ったものに書き直すことに.で,テストしてみたらsnapshotはきちんと動くけど書き込み時のパフォーマンスが変.

snapshotのchunksizeを16k,64k(RAIDのchunksizeと同じ),512k(LVMの最大サイズ)と変えてみたけど,挙動は変わるもののだめなことに変わりはない.

16kだと最初の2GB程度を書き込んだ後にぱたっと書き込みが止まって2MB/sから4MB/sに落ちる.64kや512kだと間欠的に40MB/sと0MB/sを繰り返した結果,最終的なパフォーマンスは16kのときと大差ない.

普通のディレクトリまたはスナップショットのないLVMのディレクトリへの書き込みはWindowsからsambaでアクセスした場合には37MB/sは固く,macからnetatalkでのアクセスだと58MB/s前後は固いのだけど,それがこうなるのではどうにもならない.

普通のコピーでも似たような感じで,snapshotがとられていない場合には20MB/s-30MB/sの書き込み速度が確保できるんだけど,snapshotがとられたボリュームへの書き込みだと平均すると5-8MB/sくらいと速度が激しく低下した上にばらつきも大きくなる.謎だ.

環境としては

Debian/GNU Linux 2.6.24-etchnhalf.1

LVM2

LVM version: 2.02.07 (2006-07-17)

Library version: 1.02.08 (2006-07-17)

Driver version: 4.12.0

RAID

mdadm - v2.5.6 - 9 November 2006

RAIDを構成しているHDDは

/dev/sdb: WDC WD10EADS-00L5B1

/dev/sdc: WDC WD10EACS-00D6B0

/dev/sdd: SAMSUNG HD103UI

の3つ.RAIDの状態は

md0 : active raid5 sdb1[0] sdc1[2] sdd1[1]

1953519872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

最終的にボリュームはext3でフォーマットしてる.(これが悪い?)

追記

症状としてはもろこれ

Lurker - Database message source pull failure

なんか,いろいろ見てるとLVMの場合はこれが仕様なんじゃないかという気がしてきた.

ファイルをただ追加してるだけなのに,どんどんsnapshotの容量を食っていく辺りとかを考えても(ファイルシステムレベルのスナップショットじゃなくて,ブロックレベルのスナップショットであることの限界),snapshotを一時的にとってそれをどこか別のところにバックアップという運用がメインで,永続的に残すような用途は考慮していない?

素直にSolaris+ZFSにしたほうが良かったのか?