|
|
Dateisysteme, Tests und Know-how zum Thema StorageSpeichertechniken, die einleuchtenJan Kleinert |
Inhalt |
28 | Filesystem-Vergleich
36 | NTFS-Treiber für Linux
40 | Verteiltes Raid
44 | Test Raid-Controller
48 | Grundlagen Storage-Technik |
Von der PC-Festplatte für 60 Euro bis zur raumfüllenden Tape-Library - alles ist irgendwie "Storage". Und obwohl Kapazitäten und Datendurchsätze in den verschiedensten Ausprägungen gehandelt werden, kämpfen alle Speichertechniken mit ähnlichen Problemen: Die zu sichernde Informationsmenge wächst rasant. Der Eindruck, dass Speichermedien stets billiger und größer werden, ist absolut betrachtet zwar richtig, relativ zur Datenflut jedoch falsch. Mit der Menge nimmt zudem der materielle Gegenwert der Daten zu und damit die Notwendigkeit für Ausfallschutz und bessere Backup-Qualität.
Ein andere langfristige Entwicklung gibt auch Anlass zum Nachdenken: Die Zugriffszeiten und Datendurchsätze aller gängigen Speichermedien hinken dem Rest des Hardware-Fortschritts hinterher. Wenn man PC-Komponenten von heute mit denen vor 15 Jahren vergleicht, haben sich die relevanten Parameter um den Faktor 103 verbessert: Die CPU-Frequenz, die Festpattenkapazität, der RAM-Durchsatz, Grafikkartenspeicher und so weiter.
In auffälliger Diskrepanz dazu entwickeln sich die Zugriffszeiten moderner Festplatten, die seit 1990 bestenfalls um den Faktor 10 zulegen konnten, und deren Datentransferraten, die nur um den Faktor 102 aufgedreht haben. Im Prinzip trägt die Tatsache, dass mechanisch bewegte Teile nach wie vor die Schlüsselkomponenten jedes ernst zu nehmenden Storage bestimmen, Schuld an der Schieflage.
Man muss kein Systemtheoretiker sein, um richtig zu mutmaßen, dass der Einfluss der Parameter "Zugriffszeit" und "Datendurchsatz" auf die erzielbare Gesamtperformance steigt. Einfach nur mehr RAM ins System zu stopfen, bringt nur Linderung, keine Lösung des Problems. Der physikalischen Gegebenheit rotierender Metallscheiben und zirpender Kopfmotoren begegnet man wirksam am ehesten mit klugen Softwarekonzepten. Zuerst sind hier die Filesysteme in der Pflicht.
Unter Linux besteht an denen kein Mangel, ganz im Gegenteil. Hinzu kommt, dass die bestehenden Dateisysteme zügig weiterentwickelt werden. Der Artikel ab der nächsten Seite beruht auf Erkenntnissen früherer Beiträge dieser Art und führt sie verfeinert fort. Diesmal erfolgen die Tests auch konsequent unter Kernel 2.6. Die Tester nahmen zudem das kommerzielle Veritas-System in die Pflicht, von dem Wunderdinge berichtet werden.
Viele Endanwender booten mal Linux, mal Windows, wie es ihnen gefällt. Zum Austausch der jeweils anderen Nutzdaten brauchen sie vollen Zugriff auf die fremde Partition. Das ist technisch leider nicht so einfach. Die beiden ab Seite 36 vorgestellten Lösungen schaffen das - unterschiedlich gut.
Je wertvoller die Daten, desto sicherer sind sie vor Ausfällen zu bewahren. Ein gutes Hardware-Raid einsetzen ist eine Möglichkeit (Seite 44), das Verteilen der Daten auf viele, örtlich getrennte Rechner eine andere (Seite 40). SAN, NAS, Raids, Tape-Libraries ...: Hinter jedem Begriff des Storage-Markts verbergen sich spezielle Einsatzszenarien. Der Artikel ab Seite 48 bringt Admins die nötige Klarheit.