[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: Hardware- oder Software-RAID?


On 05.09.13 23:10, Raphael Eiselstein wrote:
> On Sun, Sep 01, 2013 at 11:56:07PM +0200, Frank Thommen wrote:
> > Tja, *das* waere natuerlich wunderschoen, scheitert aber definitiv
> > an der Finanzierung und der Groesse der aktuell verfuegbaren SSDs:
> > Es stehen sechs 2.5"-Slots zur Verfuegung und im Maximalausbau
> > moechten wir 4 TB Nettodaten.  Das geht mit RAID-6 oder
> > RAID-5+Hotspare gerade noch.  Mit SSDs bezahlbar leider nicht ;-)
> 
> Ich moechte an dieser Stelle ausdruecklich vor RAID 5/6 warnen, insbesondere
> wenn man eine defekte Platte einmal rebuilden moechte. Die Schreibperformance
> ist auch mit Batteriegepuffertem Cache unterirdisch im Vergleich zum
> RAID 1+0 Setup bei ansonsten identischer Hardware.
> [...]
> Unter FreeBSD und inzwischen auch unter Linux (seit debian wheezy)
> verwende ich ZFS im Mirror-Betrieb. Das wuerde ich fuer reine Daten-Pools
> jederzeit bevorzugen, unter FreeBSD geht auch / auf ZFS, erfordert
> allerdings etwas mehr Erfahrung bzw. eine hoehere Frustrtationstoleranz
> ;-)

Hmm.  Ist ZFS unter Linux unterdessen stabil und funktionell genug fuer einen
operativen Betrieb?  Das Letzte was ich gehoert habe - ist aber schon eine
Weile her - hat sich anders angehoert.  Der Server wird unter CentOS 6 laufen,
denn unsere gesamte Umgebung ist CentOS basiert.

/ wird nicht auf diesem RAID liegen.


> 4TB netto aus 6x2.5" Slots ist natuerlich sehr sportlich, aber mit
> verfuegbarer Hardware durchaus schon machbar.

Unterdessen sind es erst mal 4 x 1 TB (2.5"), ggf. kaufen wir spaeter noch
Platten dazu....

> Beispiel:
> 
> * 2x1TB Platten fuer System, Software und Bewegungsdaten als klassisches Software RAID1
>    --> (HDD0|HDD1) (Mirror)

System und Bewegungsdaten kommen auf 2 x 100 GB SSD (RAID-1).

> * 4x2TB Platten (zB WD20NPVX) als ZFSv28 Pool fuer Massendaten
>    zusammengesetzt aus 2x mirror, entspricht einem RAID 1+0
>    --> (HDD2|HDD3)-(HDD3|HDD5) (2x Mirror als Pool)

Das Volume/RAID/Pool fuer Massedaten besteht aus 4(-6) x 1 TB 2.5"-Platten.
Bei 4 Platten verliere ich mit RAID-10 gleich viel wie mit RAID-5+Hotspare,
aber je mehr Platten ich habe, desto mehr Platten verliere ich.  Ist der
Performanceverlust mit - Software! - RAID-5 mit modernen CPUs (es gibt einen
Xeon E5-2690, 8-Core, 2.9 GHz) wirklich so dramatisch?


> IMHO sinnvoll bei ZFS ist, dass man dedizierte Platten verwendet, ...
> 
> [...]
> 
> Nachteile von ZFS
> * benoetigt viel Erfahrung

Die kriegt man nur, wenn man es verwendet, wenn man noch keine Erfahrung hat
:-)


> [...]
> * "Mehr RAM.". "Aber ich hab hab' doch schon â?¦" "â?¦MEHR RAM!"

Gibts da eine Faustregel?  1 GB RAM / TB disk?  Das duerfte kein Problem sein.
Der Server hat 32 GB RAM.  Ich moechte es nur nicht komplett fuer ZFS
verbrauchen.


> * MEHR RAM!

OK, verzichte dafuer auf vier Cores.


> Schreibperformance mit ZFS bekommt man durch zusaetzliche Nutzung von
> SSDs als nichtfluechtiger Cache (ZIL, ARC). [...]

Guter Tipp.  Danke.


> [...]
> Nicht vergessen: MEHR RAM!

OK, ich opfere dafuer das redundante Netzteil


> HW-RAID ist normalerweise eine "ohne Aufwand gluecklich werden fuer viel
> Geld"-Loesung, dafuer oft recht unflexibel. Ausser man hat sehr hochwertige
> RAID-Controller mit viel Eigenintelligenz etwa fuer VirtualDisks oder
> Logical Drives. HW-RAID *nur* mit Batterie oder SSD-Cache verwenden.

Der RAID-Controller ist onboard im Server (HP Smart Array P420i/1GB, keine
Batterie aber "long term data retention with flash back write cache", was wohl
dieselbe Funktionalitaet hat/haben soll)


> [...]
> PS: Mehr RAM!

Leider reicht das Geld jetzt nicht mehr fuer den Server ;-)


frank

-- 
UUGRN e.V. http://www.uugrn.org/
http://mailman.uugrn.org/mailman/listinfo/uugrn
Wiki: https://wiki.uugrn.org/UUGRN:Mailingliste
Archiv: http://lists.uugrn.org/