Feature

Die heißesten Technologien für Daten-Storage im Jahr 2013

Andrew Burton, Rich Castagna, Todd Erickson, John Hilliard, Sonia Lelii, Dave Raffo und Carol Sliwa

Die im Folgenden erläuterten sechs Storage-Technologien werden eine bedeutende Rolle für den Wandel in Rechenzentren im Jahr 2013 spielen. 

Unsere jährliche Prognose zu heißen Technologien für Daten-Storage bezieht sich auf  praktische Anwendungen von Technologien, die bereits heute ausgereift und erhältlich sind. Wir jubeln und staunen also nicht nur über wissenschaftliche Projekte, die es vielleicht nie auf den Markt schaffen werden – was andererseits aber nicht heißen soll, dass es den von uns favorisierten Technologien an Pep fehlen würde. Sie zählen vielmehr zu den spannendsten Technologien, die im Mittelpunkt der Transformation von Rechenzentren stehen. Dazu zählen Solid-State Storage, Storage-Clouds, Virtualisierung und Datenschutz.

Unserer Ansicht nach werden im Jahr 2013 viele Storage-Nutzer von Festplatten auf reine Flash-Laufwerke umsteigen. Grund hierfür sind deutlich sinkende Preise sowie die umwerfende Performance. Auch für das Caching von Anwendungen und Daten werden Solid-State Disks zum entscheidenden Faktor für die Beschleunigung von Festplatten-Systemen.

Diesen Artikel hier weiterlesen

Erhalten Sie diesen Artikel exklusiv sowie sämtliche Inhalte wie E-Guides, News, Tipps und mehr.
  • Um diesen Artikel vollständig zu lesen, melden Sie sich bitte kostenlos an. Falls Sie schon ein Mitlgied sind, loggen Sie sich einfach oben links auf der Webseite an.

Mit dem Einreichen Ihrer Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Sie sich außerhalb der Vereinigten Staaten befinden, stimmen Sie hiermit zu, dass Ihre persönlichen Daten in die Vereinigten Staaten übertragen und dort verarbeitet werden. Datenschutz

Cloud Storage-Dienste nehmen in vielen Unternehmensplänen für Disaster Recovery (DR) einen prominenten Platz ein, da sie eine günstige virtuelle Kollokation sowie Wiederherstellung fast ohne Zeitverlust bieten. Allerdings bringt die ständige Verbesserung der Services für Datei-Freigaben und -Synchronisierung auch einigen Stress für Storage-Manager mit sich.

Durch die Verwendung von auf Snapshots basierenden Backups werden im nächsten Jahr nächtliche und wöchentliche Backups aus den Backup-Plänen vieler Unternehmen verschwinden. Zudem wird ein Großteil der zu sichernden Daten auf speziell für virtuelle Server-Umgebungen konzipierten Systemen gespeichert werden.

Rein Flash-basierte Storage-Arrays

Bisher war der Preis ein großes Hindernis für die Implementierung von Solid-State Storage. Ausschließlich mit Flash bestückte Arrays brauchten daher relativ lange, um sich durchzusetzen. Doch eine Gruppe von Startups hat rein Flash-basierten Arrays mit niedrigeren Preisen zum Erfolg verholfen. Und wenn es zu Übernahmen durch die Storage-Giganten am Markt kommt, könnten sie Einzug in noch viel mehr Unternehmen halten.

Man könnte sagen, dass der Bedarf nach höherer Geschwindigkeit einen Markt für Flash-Systeme geschaffen hat. Komplett mit Solid-State Drives (SSD) bestückte Top-Tier Arrays bieten eine Performance von 500.000 IOPS bis zu 1.000.000 IOPS. Selbst „Second-Tier“ Arrays leisten 100.000 IOPS bis 200.000 IOPS – zu einem Bruchteil der Kosten von Top-Tier-Geräten.

„Bei rein Flash-basierten SSD-Arrays geht es hauptsächlich darum, das höchste Volumen an IOPS oder Storage-Performance so günstig wie möglich in ein möglichst kleines Gehäuse zu packen“, so Jeff Byrne, Senior Analyst und Consultant bei der im US-Bundesstaat Massachusetts ansässigen Taneja Group.

Am Verhältnis Dollar pro Gigabyte gemessen, sind die Kosten für reine SSD-Arrays unglaublich hoch. Legt man allerdings das Verhältnis Dollar pro IOPS zugrunde, sieht die Sache schon wieder anders aus. Daher eignen sich reine SSD-Arrays am besten für Umgebungen mit Anwendungen, die eine kontinuierlich hohe Performance erfordern.

Beispiele hierfür sind laut Byrne Bereiche wie Daten-Analyse, digitale Bildbearbeitung, Virtuelle Desktop-Infrastrukturen (VDI), Datenbank-Anwendungen, Trading-Systeme im Finanzsektor sowie Gaming-Websites. Diese Anwendungen erfordern auch ein hohes Transaktionsvolumen sowie extrem zufälliges I/O – was wiederum die hohen Kosten pro Gigabyte für ein reines SSD-Array rechtfertigen kann.

Rein Flash-basierte Storage-Plattformen finden sich im Angebot von Startups wie Kaminario, Nimbus Data, Pure Storage, SolidFire, Skyera, Tegile Systems, Violin Memory und Whiptail Technologies sowie anderen. Sie werden allerdings schon bald Konkurrenz haben. EMC übernahm im vergangenen Mai XtremIO und plant die Markteinführung seines rein Flash-basierten „Project X“-Systems für Mitte 2013. Auch IBM ist mit einer Reihe rein Flash-basierter Systeme bereits am Markt vertreten. Das Unternehmen erwarb die Technologie durch die Übernahme von Texas Memory Systems im August 2012.

Die Arrays der Top-Hersteller schlagen mit Kosten von 16 bis 20 US-Dollar pro GB zu Buche. Flash-Arrays im mittleren Preissegment kosten immerhin noch 3 bis 8 Dollar pro GB. Demgegenüber liegen die Preise pro GB für die in Unternehmen heute eingesetzten Festplatten-Arrays unter 2 Dollar.

Alle Anbieter von SSD-Storage bemühen sich intensiv darum, die Kosten ihrer Arrays zu drücken. Gleichzeitig wird das gesamte Array-Design auf möglichst hohe Effizienz und Kosten-Effektivität hin optimiert.

Eine Möglichkeit zur Senkung der Kosten ist die Verwendung von Multi-Level Cell (MLC)-Flash anstatt des teureren Single-Level Cell (SLC)-Flash. SLC-Flash ist haltbarer, zuverlässiger und hat eine Lebensdauer von 100.000 Schreibzyklen; die Lebensdauer von MLC beträgt dagegen nur ungefähr 10.000 Schreibzyklen. Mithilfe von Software und einer Optimierung der Schreib-Verfahren haben die Hersteller allerdings mittlerweile eine höhere Leistung und Haltbarkeit von MLC-Flash erzielt. Technologien zur Daten-Reduktion können ebenfalls zu einer Preissenkung beitragen und so das Volumen des effektiv nutzbaren Speicherplatzes erhöhen.

Durch die sinkenden Preise für Flash-Speicher und den häufigeren Einsatz von MLC in 2013 entwickeln sich Flash-Arrays rasant weiter. Vermutlich werden sie ihr Nischendasein hinter sich lassen und in normalen Unternehmensanwendungen den Platz von herkömmlichen Festplatten-Laufwerken einnehmen.

Cloud-basiertes Disaster Recovery

Cloud-basiertes Disaster Recovery (DR) kann die ideale Option für Notfälle sein und eignet sich für den Einsatz in KMU ebenso wie in globalen Konzernen. Unternehmen können damit auf einfache und günstige Weise Kopien ihrer Daten in einen Service für Cloud-Storage auslagern. Durch Server-Virtualisierung lassen sich bei einer Störung der lokalen Systeme neue virtuelle Server in der Cloud starten – somit bleibt der Zugriff auf gespeicherte Daten erhalten.

„Im Grunde genommen verschiebt das Cloud-basierte Disaster Recovery die herkömmlichen Recovery-Assets (z. B. speziell für Backups vorgesehene Storage-Systeme) in eine Cloud-basierte Storage-Umgebung. Diese wird von einem externen Anbieter zur Verfügung gestellt“, erläutert Paul Kirvan, unabhängiger Berater und Experte für Disaster Recovery.

Die aktuelle Umfrage des Storage-Magazins zu Kaufabsichten offenbart eine eher zögerliche Haltung von Unternehmen gegenüber Cloud-Storage. Allerdings gaben 12 Prozent der Teilnehmer an, die Cloud bereits für DR zu nutzen.

Eine im März 2012 von Forrester Research im Auftrag von IBM durchgeführte Studie zeigte, dass große Unternehmen im Hinblick auf Cloud-DR von den Diensten externer Anbieter profitieren können. Demnach erweitern oder aktualisieren derzeit 23 Prozent der befragten Unternehmen ihre Implementierungen von Cloud-DR (auch als Disaster Recovery as a Service bezeichnet). Ist noch kein solches System vorhanden, planen die Unternehmen zumindest eine Implementierung innerhalb der nächsten 12 Monate.

Darüber hinaus bekundeten 36 Prozent der von Forrester befragten Unternehmen Interesse an der Technologie. Über die Hälfte der Teilnehmer an der Umfrage bezeichneten diese sogar als „höchste Priorität hinsichtlich Hardware/IT-Infrastruktur“ „IT-Manager, die noch nicht die Möglichkeiten der Auslagerung von Recovery in die Cloud ausgelotet haben, hinken hinterher. In diesem Fall ist es höchste Zeit, mit der Planung zu beginnen“, schreibt Forrester in der Studie.

Die Einbindung eines externen Anbieters gibt Nutzern von Cloud-DR die Freiheit, sich nicht selbst um Aufbau und Wartung der benötigten Infrastruktur kümmern zu müssen. Für kleinere Unternehmen ohne die erforderlichen IT-Mitarbeiter oder Ressourcen kann dies ein echter Vorteil sein.

Laut Kirvan muss bei der Umstellung auf Cloud-DR dennoch zuerst die Frage der Speicherung von Daten gelöst werden. Dazu zählt die Entscheidung für eine synchrone oder eine asynchrone Replikation in der Cloud – ein hinsichtlich der verfügbaren Bandbreite entscheidender Faktor. Zudem muss geklärt werden, ob noch genutzte Backup-Bänder aufbewahrt werden sollen und welche Datentypen – beispielsweise Datenbanken, Anwendungen oder andere kritische Daten – in die Cloud kopiert werden.

„Cloud-basierte DR-Services stellen eine kostengünstige sekundäre Backup- und Recovery-Lösung dar, die vorhandene Backup- und Recovery-Szenarien unterstützt“, so Kirvan. „Ideal wäre eine Strategie zum Aufbau einer hybriden Konfiguration, bei der Ressourcen vor Ort mit den DR-Ressourcen in der Cloud kombiniert werden.“

Backups auf Basis von Snapshots

Die Integration von Array-basierten Snapshots mit Backup-Software ermöglicht Nutzern die Verwaltung der Snapshots als Teil des Backup-Prozesses. Bislang wurde für Array-basierte Snapshots die Management-Software des Herstellers der Storage-Hardware verwendet. Aus diesem Grund mussten diese auch separat verwaltet werden. Dies hat sich im Jahr 2012 geänderte, weil mehrere Anbieter von Backup-Software eine Funktion zur Verwaltung von Array-basierten Snapshots ankündigten.

„Heute sind immer mehr Backup- und Recovery-Suites mit einer Funktion zur Kontrolle und Katalogisierung von Array-basierten Snapshots ausgestattet“, erklärt Rachel Dines, Analystin bei Forrester Research. „Darüber hinaus gibt es sogar Lösungen, die einzelne Dateien und Objekte aus einem Snapshot wiederherstellen können. Somit lassen sich Snapshots zum ersten Mal auch wirklich in die Strategie zum Schutz von Daten integrieren.“

Laut Greg Schulz, Gründer und Analyst bei StorageIO im US-Bundesstaat Minnesota, führt diese Entwicklung irgendwann zur Lösung der Probleme, mit denen Nutzern bei der Verwendung jeglicher Technologien konfrontiert sind. „Die Herausforderung bei Snapshots besteht in der Verwaltung geschützter Inhalte. Die bisher verwendeten Tools waren in dieser Hinsicht schon ziemlich ausgereift“, erläutert er. „Andererseits liegt das Problem bei herkömmlichen Backups im Aufwand an Zeit und Ressourcen, der zur Erfassung der Daten und dem anschließenden Kopieren an ihren Bestimmungsort anfällt.“

Wie Dines von Forrester Research erklärt, können Nutzer mithilfe von Snapshots ihre Backup-Fenster besser einhalten und auch Daten schneller wiederherstellen – genau diese beiden Punkte werden von IT-Experten schon seit Jahren als zunehmend problematisch gesehen. „Im Hinblick auf Backups können Nutzer durch die Verwendung von Snapshots die erforderlichen Backup-Zeiten extrem verkürzen. Man erstellt einfach einen Snapshot und verwendet diesen dann als Backup“, so Dines. „Zudem lassen sich solche Snapshots schnell einbinden und fast ohne Zeitverzögerung verwenden – das geht wesentlich schneller als die Wiederherstellung eines herkömmlichen Backups.“

Das Konzept der Verwendung von Snapshots im Rahmen einer Strategie zum Schutz von Daten ist nicht neu. Viele IT-Abteilungen haben Array-basierte Snapshots schon als schnelle Recovery-Strategie eingesetzt, aber gleichzeitig Backups ihrer Daten erstellt. Durch die Integration von Snapshots und Backups können sie diesen Ansatz nun rationalisieren.

„2012 und 2013 werden wichtige Jahre für diese Variante von Backups, weil die Technologie jetzt von einigen Anbietern erhältlich ist. Und wie manche Early Adopter festgestellt haben, ist sie schon ziemlich ausgereift“, so Dines. „Es ist an der Zeit, die vorhandene Backup-Strategie zu überdenken und mithilfe der Technologie für Snapshots die Verfahren für den Schutz von Daten zu modernisieren. Zudem lassen sich so Probleme aufspüren und beheben, statt einfach nur weiterzumachen und die Medien zu wechseln wie einen platten Reifen am Auto.“

Auch Schulz von StorageIO ist der Ansicht, dass Backups mithilfe von Snapshots ein wichtiger Schritt für die Modernisierung der Maßnahmen zum Schutz von Daten sind. „Diese Technologie ist immens wichtig, denn mit ihrer Hilfe können Nutzer überdenken, wann welche Informationen wie geschützt werden sollen.“ Ihm zufolge ist die Kombination der Technologie für Snapshots mit den Verwaltungsfunktionen von Backup-Software ein perfektes Beispiel für eine konvergente Technologie – hier würden die besten Merkmale beider Komponenten optimal genutzt.

Server-basierter Flash-Cache

Mit der Präsentation von VFCache durch EMC wurde Server-basierter Flash-Cache zu einem heißen Thema in der Storage-Welt. Die Technologie bietet einen enormen Zuwachs an Performance und gewann auch dadurch an Popularität, dass weitere wichtige Anbieter wie Dell und NetApp ähnliche Produkte auf den Markt brachten.

Der Schritt in Richtung Server-basiertes Flach-Cache durch Storage-Anbieter zeigt ganz deutlich: Pioniere wie Fusion-io mit seiner ioTurbine Software für virtuelle Umgebungen und directCache für physische Server, LSI, die OCZ Technology Group, SanDisk und VeloBit haben einen Markt geschaffen.

„Die Technologie ist jetzt heiß und wird sogar noch heißer, weil es sich um eine relativ simple Erweiterung für einen Server handelt“, sagt Dennis Martin, President von Demartek LLC im US-Bundesstaat Colorado. „Man muss dafür weder Änderungen an Anwendungen noch an Storage-Systemen im Backend vornehmen. Zudem bietet sie eine deutliche Verbesserung der Storage-Performance.“

Durch die Einbindung des Cache im Anwendungsserver statt im Storage-System verringert sich die Latenz für den Netzwerk-Hop. Um die Latenz sogar noch weiter zu drücken, nutzt Server-basiertes Flash-Cache oft PCI Express (PCIe)-Karten, die direkt mit der CPU und dem Systemspeicher statt mit SAS/SATA-basierten SSDs verbunden sind. Meist ermittelt die Caching-Software, auf welche Daten am häufigsten zugegriffen wird und legt automatisch eine Kopie dieser Daten im Flash-Cache ab. Die dafür verwendeten Algorithmen unterscheiden sich je nach Anbieter, allerdings benötigen die Read-Caches in der Regel eine Vorlaufzeit, um optimale Performance zu bieten.

Beispielsweise dauert es beim VFCache mit Sofort-Schreibzugriff oder beim Lese-Cachespeicher unter Umständen 30 bis 60 Minuten, bis er mit den Daten einer Oracle Datenbank befüllt ist. Die Daten werden anfänglich vom Anwendungsserver in das Storage-Array übertragen und asynchron auf der PCIe-Karte gespeichert, um die Anwendung nicht auszubremsen. Eine auf dem Server installierte I/O-Filter-Software prüft, ob sich eine Daten-Abfrage über die PCIe-Karte erfüllen lässt.

Ein anderer und komplexerer Typ von Server-basiertem Flash-Cache wie Fluid Cache von Dell (geplante Markteinführung nächstes Jahr) zielt auf die Beschleunigung von Lese- und Schreibvorgängen ab. Laut Martin stellt ein Lese-/Schreib-Cache für den Anbieter einen höheren Aufwand dar als ein reiner Lese-Cache. Grund dafür ist der vor einer Speicherung der Daten im Storage-System im Backend durchgeführten Schreibvorgang. Zudem muss die Software auch für einen Schutz der Daten sorgen.

Die Kompatibilität von Server-basierten Caches zu Storage-Systemen von Drittanbietern ist eine der wichtigsten Fragen. So arbeitet VFCache problemlos mit beliebigen Servern oder externen Storage-Systemen zusammen. Allerdings plant EMC offenbar die tiefe Integration des Cache in seine Technologien für Storage-Management und Fully Automated Storage Tiering (FAST). Nach Ansicht von Branchen-Experten bietet ein Großteil der Server-basierten Flash-Cache Software letztendlich nur in Kombination mit einem Storage-System des gleichen Anbieters eine optimale Performance sowie fortschrittliche Funktionen.

Storage-Systeme für virtuelle Umgebungen

Server-Virtualisierung erfordert von Unternehmen die Installation von Netzwerk-Storage. Gleichzeitig müssen Anbieter ihre Verfahren für Provisionierung und Verwaltung von Storage überdenken. Die zunehmende Verbreitung virtueller Server in Rechenzentren beschleunigt diesen Trend: Virtualisierung erobert nun auch den Desktop, und durch VMware erhalten Server-Administratoren endlich mehr Storage-Kontrolle.

Die wichtigsten Storage-Anbieter arbeiten eng mit VMware zusammen, um die Storage-Funktionen des Unternehmens zu integrieren. Startups entwickeln Storage-Systeme, die in vCenter eingerichtet werden können und so eine einfache Provisionierung und Verwaltung bieten. Darüber hinaus werden neue konvergente Stacks angeboten, die eine verbesserte Integration von virtuellen Maschinen (VM) und Storage ermöglichen.

Heute verteilt sich die Kontrolle über Storage mehr denn je auf virtuelle Server und Server-Administratoren. VMware unterstützt diesen Trend durch seine Virtual Storage Appliances (VSAs) und zukunftsorientierte Funktionen wie vFlash, vSAN und vVols.

Als Reaktion auf die zunehmende Virtualisierung von Servern hat fast jeder Storage-Anbieter Änderungen hinsichtlich Vertrieb und Verwaltung seiner Produkte vorgenommen. Die größten Storage-Anbieter unterstützen vStorage APIs for Array Integration (VAAI) und arbeiten an der Entwicklung von Möglichkeiten zur Provisionierung von Storage ohne LUNs, RAID-Gruppen und Mount-Punkten. Sie verfügen darüber hinaus über Referenz-Architekturen oder integrierte Stacks, die verschiedene Elemente wie Storage, Computing, Networking und Server-Virtualisierung kombinieren. Dies erleichtert Nutzern die Verwaltung des Storage für VM.

Die Startups Nutanix, Scale Computing und SimpliVity vertreiben von ihnen als „hyper-konvergent“ bezeichnete Systeme, die Kapazität, Computing und vorinstallierte VM in einem Gehäuse vereinen. Andere Newcomer wie Tegile Systems und Tintri haben speziell für die Unterstützung virtueller Maschinen konzipierte Storage-Systeme entwickelt.

Der Bedarf nach höherer Storage-Performance für VDI hat die Akzeptanz von Solid-State – einer weiteren heißen Storage-Technologie – wesentlich beschleunigt. Die Storage-Performance war bisher das größte Hindernis für die Implementierung von VDI. Allerdings konnten Unternehmen dieses Problem durch die Implementierung von SSDs nur in ihren speziell für virtuelle Desktops vorgesehenen Storage-Arrays lösen.

Die VSA-Technologie ist mit DataCore Software, LeftHand von HP und anderen Angeboten schon seit einer ganzen Weile auf dem Markt. Allerdings werden sich jetzt angesichts der verstärkten Werbung von VMware für seine VSA-Technologie höchstwahrscheinlich mehr Unternehmen dafür interessieren. VSA nutzt eine virtuelle Maschine auf dem Host für die Verbindung zu einem integrierten RAID-Controller. Über iSCSI oder NAS wird dieses Storage so anderen Hosts zur Verfügung gestellt.

Der Management-Bedarf bei Storage für VMs hat einen neuen branchenspezifischen Modebegriff geprägt: Software-definiertes Storage, angelehnt an Software-definierte Netzwerke. Bisher existiert noch keine allgemein akzeptierte Definition für Software-definiertes Storage. Die meisten Anbieter verwenden ihn, um zu beschreiben, wie sie mit virtuellen Maschinen umgehen.

Cloud-basierte Services für Datei-Freigabe und -Synchronisierung

Das Angebot an Diensten für Datei-Freigaben und -Synchronisierung steigt so rasant, dass mittlerweile über 30 Hersteller entsprechende Produkte anbieten. Die treibende Kraft hinter Cloud-basierten Freigaben ist der mobile Mitarbeiter, der zunehmend von portablen Geräten wie Smartphones und Tablet abhängig ist. Diese Gruppe von Nutzern wünscht sich für die Zusammenarbeit einen Standort-unabhängigen und über mobile Geräte jederzeit möglichen Zugriff auf Dokumente, die auf Desktops oder Notebooks gespeichert sind.

Unternehmen wie Box, ShareFile von Citrix, Dropbox, Egnyte, Nomadix, SugarSync, Syncplicity und YouSendit zählen zu den Pionieren in diesem Bereich. Sie haben schon früh Cloud-basierte Anwendungen für die Synchronisation von Daten zwischen Desktops, Notebooks und mobilen Geräten entwickelten, um so sofortigen Zugriff und Zusammenarbeit zu ermöglichen.

Zudem steigen immer wieder neue Unternehmen in diesen Markt ein. So machte beispielsweise das Startup Maginatics mit seiner MagFS Online-Plattform für Datei-Freigaben auf sich aufmerksam. Das Unternehmen nutzt ein verteiltes Datei-System und Cloud-Storage, um Endnutzern über einen gemeinsamen Namensraum Zugriff auf die Daten über verschiedene Endgeräte zu ermöglichen. Zu den neueren Akteuren zählen auch Nasuni und Scality, deren Angebote Teil einer umfassenderen Plattform für Cloud-basierten mobilen Zugriff sind.

Anfangs interessierten sich hauptsächlich kleine und mittlere Unternehmen für Cloud-Dienste zu File Sharing/Synchronisierungszwecken. Mittlerweile ist jedoch auch das Interesse großer Unternehmen geweckt, sagt Vineet Jain, CEO von Egnyte. Dies war auch der Grund für die Veröffentlichung der Enterprise-Version „EgnytePlus“, mit der die Synchronisierung verbessert und mehr Benutzer unterstützt werden. „Unser Produkt wird immer häufiger in großen Unternehmen eingesetzt“, so Jain.

Wie die meisten Cloud-Implementierungen lassen sich Online-Dienste für Datei-Freigaben auf drei Arten realisieren: als öffentliche, private oder hybride Variante. Einerseits gibt es also öffentliche Varianten, bei denen die Verantwortung für den gesamten Service auf Seiten des externen Anbieters liegt. Daneben werden auch Software-Lizenzen angeboten, mit denen Nutzer ihre eigene Hardware hinter einer Firewall installieren und so die Sicherheit gewährleisten können. Der hybride Ansatz vereint interne Freigaben mit einem öffentlichen Cloud-Dienst dafür.

Anfangs setzten Unternehmen Datei-Freigaben über die Cloud vor allem dazu ein, um Mitarbeitern Remote-Zugriff auf Dateien über Smartphones und Tablet zu ermöglichen. Zur Freude der IT-Manager kann diese Technologie allerdings auch manche internen Datei-Server ersetzen. Dies verringert die Kosten für Virtual Private Networks (VPN) und erleichtert die Verwaltung des Zugriffs durch Mitarbeiter von unterschiedlichen geografischen Standorten.

Ganz offensichtlich verändern mobile Geräte die Art und Weise der Zusammenarbeit von Mitarbeitern sowie des Zugriffs auf Dokumente – und Unternehmen müssen sich dieser Veränderung anpassen. „Das früher verwendete File Sharing funktioniert für mobile Mitarbeiter nicht mehr“, so Terri McClure, Senior Analyst bei der im US-Bundesstaat Massachusetts ansässigen Enterprise Strategy Group.

An diesem Artikel haben Andrew Burton, Rich Castagna, Todd Erickson, John Hilliard, Sonia Lelii, Dave Raffo und Carol Sliwa mitgewirkt.


Artikel wurde zuletzt im Dezember 2012 aktualisiert

Ihre Meinung zum Artikel Kommentar

Teilen
Kommentare

    Ergebnisse

    Tragen Sie zu dem Gespräch bei

    Alle Felder sind erforderlich. Kommentare werden unterhalb des Artikels erscheinen.