Ein verteiltes Dateisystem (DFS, Distributed File System) ist ein Dateisystem, das sich über mehrere Dateiserver oder mehrere Standorte erstreckt, z. B. Dateiserver, die sich an verschiedenen physischen Orten befinden. Auf Dateien kann von jedem Gerät und von jedem Ort im Netzwerk aus so zugegriffen werden, als wären sie lokal gespeichert. Ein DFS ist ideal für die kontrollierte und autorisierte gemeinsame Nutzung von Daten und Dateien durch die Benutzer in einem Netzwerk.
Der Hauptgrund, warum sich Unternehmen für ein DFS entscheiden, ist der Zugriff auf dieselben Daten von mehreren Standorten aus. Vielleicht haben Sie ein Team, das über die ganze Welt verteilt ist, aber für die Zusammenarbeit auf dieselben Dateien zugreifen können muss. Oder, wenn Sie in der heutigen, zunehmend hybriden Cloud-Welt Zugriff auf dieselben Daten vom Rechenzentrum über den Edge-Bereich bis zur Cloud benötigen, dann sollten Sie ein DFS verwenden.
Ein DFS ist in den folgenden Bedarfsfällen von entscheidender Bedeutung:
Ein DFS (Distributed File System) ist ein Dateisystem, das auf mehrere Standorte verteilt und dort gespeichert ist, beispielsweise auf Dateiservern, die sich an verschiedenen Orten befinden. Auf Dateien kann von jedem Gerät und jedem Ort aus so zugegriffen werden, als wären sie lokal gespeichert. Ein DFS ist ideal für die kontrollierte gemeinsame Nutzung von Daten und Dateien durch autorisierte Benutzer in einem Netzwerk.
Dies sind die gängigsten DFS-Implementierungen:
NFS steht für Network File System und ist ein Beispiel für ein verteiltes Dateisystem (DFS). In einer Client-Server-Architektur ermöglicht das NFS-Protokoll Computerbenutzern das Anzeigen, Speichern und Aktualisieren von Dateien, die sich an einem entfernten Ort befinden, so als ob sie lokal gespeichert wären. Das NFS-Protokoll ist einer von mehreren DFS-Standards für NAS (Network Attached Storage).
Eine der Herausforderungen bei der Arbeit mit Big Data besteht darin, dass sie zu umfangreich für die Verwaltung auf einem einzelnen Server sind, ganz gleich, wie groß die Speicherkapazität oder Rechenleistung dieses Servers ist. Ab einem bestimmten Punkt macht eine Skalierung, d. h. eine Aufstockung der Kapazität dieses einzelnen Servers weder unter dem wirtschaftlichen noch unter dem technischen Aspekt Sinn. Stattdessen müssen die Daten durch Skalierung auf mehrere Cluster (auch Knoten genannt) verteilt werden, wodurch die Rechenleistung jedes Clusters genutzt werden kann. Mit einem verteilten Dateisystem (DFS, Distributed File System) können Unternehmen, den Zugriff auf Big Data über mehrere Cluster oder Knoten verwalten, sodass sie Big Data schnell lesen und mehrere parallele Lese- und Schreibvorgänge durchführen können.
Ein verteiltes Dateisystem funktioniert wie folgt:
Bei der DFS-Replikation handelt es sich um eine Replikations-Engine mit mehreren Mastern in Microsoft Windows Server, mit der Ordner zwischen Servern über Netzwerkverbindungen mit begrenzter Bandbreite synchronisiert werden können. Wenn sich die Daten in den einzelnen replizierten Ordnern ändern, werden die Änderungen über die Verbindungen repliziert.
Das Ziel der Verwendung eines verteilten Dateisystems besteht darin, den Benutzern von physisch verteilten Systemen die gemeinsame Nutzung ihrer Daten und Ressourcen zu ermöglichen. Als solches befindet sich das DFS auf einer beliebigen Sammlung von Workstations, Servern, Mainframes oder einer Cloud, die durch ein lokales Netzwerk (LAN, Local Area Network) verbunden sind.
Zu den Vorteilen der Verwendung eines DFS gehören:
Zur effektiven Konsolidierung von Speichersilos brauchen Unternehmen ein verteiltes Dateisystem (DFS, Distributed File System), das mehrere Anwendungsfälle gleichzeitig bewältigen kann. Es muss NFS-, SMB- und S3-Standardschnittstellen, starke E/A-Leistung für sequenzielle und zufällige E/A, Inline-Deduplizierung mit variabler Länge und häufige persistente Snapshots bieten.
Das DFS muss außerdem eine native Integration in die Public Cloud bieten, um eine Multi-Cloud-Datenstruktur zu unterstützen, die Unternehmen in die Lage versetzt, Daten zur Archivierung oder für komplexere Anwendungsfälle, wie Notfallwiederherstellung, flexible Entwicklung/Tests und Analysen in die Cloud zu senden.
Dies alles muss auf einer Web-Scale-Architektur durchgeführt werden, um die stetig wachsenden Datenvolumen effektiv verwalten zu können.
Cohesity hat ein vollständig neues Dateisystem geschaffen, mit dem Unternehmen in der Lage sind, im großen Maßstab die Kontrolle über ihre Daten wieder zu übernehmen: SpanFS. SpanFS ist so konzipiert, dass alle unstrukturierten Daten einschließlich Datensicherungen, Dateien, Objekte, Entwicklungs-/Test- und Analysedaten auf einer einzigen Web-Scale-Multicloud-Plattform konsolidiert und verwaltet werden, die sich vom Kern über den Edge-Bereich bis zur Cloud erstreckt.
Mit Cohesity SpanFS können Sie Datensilos standortübergreifend konsolidieren, indem Sie branchenübliche, weltweit verbreitete NFS-, SMB- und S3-Protokolle auf einer zentralen Plattform bereitstellen.
Dies sind die wichtigsten Vorteile von SpanFS: