Hat das traditionelle File System ausgedient?

Große Mengen unstrukturierter Daten und Cloudtechnologien bringen das übliche File System an seine Grenzen. Braucht es neue Ansätze?

Es gibt viele unterschiedliche Arten an File-Systemen. Einige wurden für verschiedene Storage-Medien konzipiert, wie zum Beispiel das ISO 9660 File System für optische Disks. Andere wurden konzipiert, um den Zugriff auf bestimmte Storage-Geräte in einem Netzwerk zuzulassen, wie beispielsweise CIFS oder SMB. Wiederum andere übersetzen oder mappen ein bestimmtes Schema an File-Daten und Metadaten an völlig andere Schemata oder haben teil am Parsen eines Files über physische Medien.

Das traditionelle File System ist und kann also mehr als man annehmen könnte, insbesondere dann, wenn es um unstrukturierte Daten – sprich Nutzer-Files – geht. Genauer gesagt, enthält das traditionelle File System eine Menge Struktur, aber auch Komplexität.

Die aktuellen IT-Entwicklungen stellen Storage-Manager und RZ-Entscheider vor die Frage, ob das File System in seiner derzeitigen Form noch immer der beste Mechanismus für die Datenspeicherung ist. Tatsächlich haben das Aufkommen von Cloud Computing, Virtualisierung und „langen Block-Files“, wie zum Beispiel Video, medizinische Images oder Genom-Daten, die Frage aufgeworfen, wie wirksam das traditionelle File System noch in Zukunft sein kann.

Aber warum ist das so? Zum einen flacht Cloud Computing die Directory-Struktur ab und führt viele Files unter einem Namespace zusammen, um schneller laden zu können. In einigen Fällen kann eine einzige Page Millionen an File-Komponenten haben, was einer höheren Geschwindigkeit der File-System-Operationen bedarf, um CPUs und GPUs mit Daten zu bedienen.

Und die Tatsache, dass potentiell Millionen und Milliarden, oder besser TBytes und PBytes, an Files an Storage gesendet werden, erschwert die Suche nach einem File und macht sie langsamer. Das rührt daher, dass dieses File in all den Directorys, Subdirectorys und über verschiedene Standorte hinweg gesucht beziehungsweise gefunden werden muss.

Ein anderes Problem ist die selbstzerstörerische Natur des traditionellen File-Systems. Die meisten File-Systeme überschreiben die letzte gültige Kopie einer Datei, wenn eine neue Version dieser Datei gesichert wird, anstatt ein Revisionsjournal anzulegen. Dies wurde vor 30 Jahren bewusst so eingerichtet, da der Preis pro GByte an Diskspeicher enorm teuer war. Einige File-Systeme offerieren mehr Optionen für das Sichern von Dateien – unter anderem Journaling - , aber oftmals werden sie nicht eingesetzt.

So sollte On-Journaling beispielsweise die Verschwendung von Storage-Platz verhindern. Die Realität sieht anders aus. Dadurch, dass der Inhalt oder der Geschäftskontext von Dateien, die von Endanwendern erstellt werden, oft nicht verstanden wird, verschwenden Unternehmen noch immer enormen Speicherplatz. Eine aktuelle Studie des Data Management Institute belegt, dass bis zu 70 Prozent einer jeden Festplatte mit Files belegt sind, die inaktiv, nicht referenziert, vergessen, dupliziert oder eingeschleust sind.

Technologien wie Deduplizierung haben hier Abhilfe schaffen können, insbesondere bei versehentlichen Duplikaten oder White Space. Viele File-Systeme werden nun optimiert, um Deduplizierung als Teil des Storage-Prozesses auf File-System-Ebene zu garantieren, aber der Aufwand geht zu Lasten der File-System-Performance.

Es gibt also viele Gründe, warum man das herkömmliche File System überdenken sollte. Eine Alternative ist es, einen anderen Referenz-Frame für das Datenspeichern zu nutzen. Ein Ansatz, der unter anderem von Tintri vorangetrieben wird. Der Hersteller setzt eine virtuelle Maschine als Ersatz für ein traditionelles Directory, Subdirectory, Volume oder LUN-File-Systeme-Framework ein, was die Popularität Hypervisor-basierten Computings noch steigert.

Firmen wie Caringo und andere Object-Storage-Unternehmen nutzen ein Object-orientiertes Storage-Framework statt des herkömmlichen File-Systems. Dieser Ansatz eignet sich für Cloud Computing, da hier die Geschwindigkeiten, der Datenfluss und die Kapazitätsausnutzung flacher Directory-Systeme mit zahlreichen File-Objekten optimiert wird. Ebenso eignet sich dieser Ansatz für lange Block-Files wie Video und medizinische Images. Diese verändern sich kaum und können durch besonders ausführliche Metadaten für eine bessere Suche in Objekt-Inhalten verbessert werden.

Folgen Sie SearchStorage.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im August 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Storage

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchNetworking.de

SearchEnterpriseSoftware.de

SearchDataCenter.de

Close