Eine Hinwendung zu granularen Einheiten in der Cloud, ein Augenmerk auf Disaster Recovery, sowie Modifikationen der Private Cloud und Datenvermittlung – das prognostiziert Axel Dunkel, Geschäftsführer des IT-Dienstleisters Dunkel GmbH, für 2020.

CloudContainerlove: Container bahnen sich allmählich ihren Weg von versierten Insidern hin zu einer breiteren Nutzerfläche. Die Containertechnologie stutzt Applikationen zu Kleinsteinheiten und erhöht damit Stabilität und Performance: Auf vielen Unternehmenssservern entspricht die Funktionalität der virtualisierten Hardware derjenigen ihres greifbaren Gegenparts. Anwendungen laufen auf dem Betriebssystem des Unternehmensservers. Stößt ein neues Tool hinzu – zum Beispiel das Instrument Zeiterfassung – stehen Modifizierungen im gesamten Betriebssystem an. Andernfalls mischt sich die Zeiterfassung zum Beispiel ins Mailprogramm ein und sorgt für Unordnung. Mit der Containertechnologie fand ein Paradigmenwechsel in puncto Entwicklung statt. Diese Methode weist jeder Anwendung eine noch kleinere Einheit als eine virtuelle Maschine zu. Aufs Kleinstmögliche geschrumpft, tragen sie den Namen Microservices. Jede Mikro-Applikation verbraucht nur die unbedingt nötige Rechenleistung und beeinflusst keine andere Anwendung. Diese Variante verkörpert damit Cloudvorteile pur. Die Einzeller sind einfach aufgebaut und erfüllen nur einen – nämlich ihren – Zweck. Schlanke Struktur erleichtert Programmieren und Reparieren.

So betörend einfach dies klingt, so unmöglich erweist sich das Andocken der Containertechnologie an Legacy-Systeme. Micro-Anwendungen kennen lediglich eine akkurat zu spielende Melodie; gemeinsam mit anderen Instrumenten erklingen sie als Konzert. Im Vergleich dazu läuft auf Legacy-Systemen ein vorprogrammierter Leierkasten ab. Er denkt das eigenständige, orchestrierte Spiel Einzelner nicht mit, sondern agiert als Gesamtlösung. Im Rahmen verschärfter Sicherheitsanforderungen und wachsender Datenmengen stellen sich viele Unternehmen in den kommenden Jahren der Frage, ob sie ihr System ausweiten oder von Grund auf neu aufrollen wollen. 2020 professionalisieren Cloud-Dienstleister die Container und führen Verfahren wie das Backup für die neuen agilen IT-Einzeller ein. Auch das Bereitstellen von Microservices zum Kennenlernen dieser Technologie – sozusagen das Einhüten von Mikro-Applikationen in externen Fremdcontainern – dürfte 2020 an Fahrt aufnehmen.


Anzeige

„Quo vadis Dynamics ERP?“

webinar microsoft erpKostenloses Webinar zum Thema Microsoft Dynamics & Cloud

Referent: Frank Naujoks, Trovarit AG

Zur Anmeldung


Disaster Recovery im Aufschwung

Vorsorglicher Katastrophenschutz duldet keine Wartezeiten. Externe Wirtschaftsprüfer thematisieren mittlerweile explizit Disaster-Recovery-Konzepte, auch die eigene Revision nimmt Schludern in diesem Thema nicht mehr hin. „Dopple die Daten“ lautet die Grundregel beim Daten-Katastrophenschutz. Weil die größte Bedrohung jedoch vom Menschen ausgeht, erfüllen reine Spiegelungen nicht den gewünschten Zweck: Sie dämmen von Menschen herbeigeführte Desaster nicht ein, sondern duplizieren sie. Ins Bewusstsein dringen Hypervisor-basierte Lösungen, die zusätzlich zum letzten Status auch die Historie speichern. Diese kontinuierliche Synchronisation restauriert Daten sekundengenau und versetzt das betroffene System feingranular in einen früheren, intakten Zustand zurück, während der Rest flüssig weiterläuft.

Die Public Cloud wird ganz privat

Private Cloud klingt vertrauenserweckend, Public Cloud nach Freibier für alle. Doch Elastizität, Skalierbarkeit und Kosten nach Nutzen erfüllt die Private Cloud nicht – sie entspricht einem festinstallierten, platzraubenden Datentresor, auf welchem der Aufkleber „Cloud“ prangt. In den kommenden 4 Jahren werden neue Formen der selbstverwalteten Public Cloud ihrer privaten Schwester den Rang ablaufen. Bei diesen Nischen in der öffentlichen Wolke stecken Server- und Speicherkapazität in einem privaten Netzwerk, Anwender verschlüsseln und verwalten den Inhalt ihrer virtuellen Umgebung selbst und Datenverkehr läuft über ein sicheres Virtual Private Network. Einem ähnlichen Trend folgt das Konzept der Distributed Cloud, die stabile Server-Qualität über regional und global gestreute Standorte hinweg sichert. Diese Betriebsvariante holt aus einer verteilten Server-Architektur das Beste heraus. So lassen sich beispielsweise damit Smart-Home-Devices oder Streaming-Dienste mit lokal nahgelegenen Systemen verarbeiten.

Lieferwagen bringen Daten in die Zielcloud

Selbst bei einer ultraschnellen Glasfaser dauert der Upload von 50 Terrabyte in die Zielcloud fünf Tage, in Gegenden mit ordentlichem Breitbandanschluss brauchen 50 MBit knapp 100 Tage, bei Upload-Geschwindigkeiten von unter 5 MBit/s sogar 2,5 Jahre. Der Mobilfunkstandard 5G wird zwar kommen, doch gleichzeitig wächst die Datenmenge. Das Tempo der Datenübertragung in der Cloud hängt vom Verhältnis von Datenmenge und Internetbandreite ab. Da auch im nächsten Jahr die Datenfülle schneller wächst als die Internetbandbreite, etabliert sich für bestimmte Szenarien ein physischer Transport in speziell dafür gerüsteten Lieferwagen wie dem Cloudtransporter als zeitlich sinnvolle Übermittlungsform. jf


Der Autor

Axel Dunkel ist Gründer und Geschäftsführer der Dunkel GmbH, einem Anbieter hochverfügbarer Cloud-Infrastrukturen und flexibler Sicherheitslösungen zum Schutz von IT-Netzen, E-Mails, Team-Kollaboration sowie organisationsinternen und -übergreifenden Kommunikationsprozessen.