Achtung vor falschen Versprechen bei Multi-Cloud!
Infrastrukturen und -Anwendungen an Cloud-Anbieter auszulagern, heisst nicht, dass in der Informatik Ressourcen gespart werden können. Die Sicherstellung eines reibungslosen Betriebs hat Veränderungen bei den Anforderungen an die IT zur Folge.
Seit dem über 20 Jahre zurückliegenden Durchbruch des Internets ist «Software aus der Steckdose» ein viel diskutiertes Thema. Salonfähig ist die Cloud und erst recht die Multi-Cloud erst in der jüngsten Vergangenheit geworden. Heute sind die Treiber die fortschreitende Digitalisierung der Geschäftsprozesse und die damit zusammenhängende Steigerung bei den Workloads. Denn die dafür benötigten Infrastrukturen sind in vielen Unternehmen schlichtweg nicht vorhanden. Marktforschern und Anbietern zufolge soll deshalb Multi-Cloud zum Standard werden.
Falsche Vorstellungen
Eine Multi-Cloud-Umgebung, also der Betrieb von Anwendungen und Storage in zwei oder mehr öffentlichen und privaten Clouds, bringt Unternehmen mit Sicherheit Vorteile. Das Betriebsmodell ermöglicht durch die Verteilung der Workloads auf mehrere Provider die gewünschte Skalierbarkeit und eliminiert die Abhängigkeit von einem einzigen Anbieter. Kleinere KMUs sind allerdings nicht in diese Kategorie einzuordnen. So benötigt beispielsweise das Kleingewerbe neben einem Exchange-Server für den E-Mail-Transport und die Zusammenarbeit in Teams durch eine zentrale Ablage von Dokumenten und anderen Informationen (Kalender, Aufgaben etc.) oftmals lediglich noch eine Lösung für den Austausch, die Synchronisation und Speicherung von Dokumenten bei einem Cloud-Storage-Anbieter und eine Branchenlösung. Diese lassen sich parallel betreiben – ein Modell, das bereits bei Internetprovidern zu günstigen Konditionen zu haben ist. Für den gehobenen Mittelstand und erst recht für Grossunternehmen heisst Multi-Cloud allerdings nicht, dass bei der IT Ressourcen eingespart werden können. Denn auch wenn die Anbieter quasi im Hintergrund laufend die Anwendungen mit Upgrades und Patches auf den neuesten Stand bringen, braucht es nach wie vor viel Fachwissen im Unternehmen. Gerade die Verteilung auf unterschiedliche Provider birgt nämlich so manche Tücken. So ist das Bauen und Installieren von skalierbaren Lösungen mit grösseren Herausforderungen verbunden. Denn dazu benötigt man mehrere Applikations-Container, die wiederum untereinander orchestriert werden wollen. Es braucht eine durchgängige Datenbank, die sich synchronisieren lässt und einen Load-Balancer, um die Lasten auf die unterschiedlichen Workloads zu verteilen. Konfiguriert werden müssen diese mit Deployment-Tools wie etwa Puppet, Chef oder Ansible, was wiederum die Notwendigkeit des entsprechenden Know-hows zur Folge hat. Je nach Grösse des Unternehmens werden auch spezielle Cloud-Management-Plattformen zur Systemintegration, für allgemeine Dienste, Service-, Ressourcen- und Finanzmanagement sowie für Governance und Sicherheit benötigt.
Fazit
Die komplette Auslagerung in öffentliche Clouds dürfte für das Gros der Unternehmen die Ausnahme bleiben. Sei es aus Compliance-Gründen oder schlichtweg, weil man aus Sicherheitsüberlegungen nicht alle Daten ausser Haus geben will, werden zumindest in absehbarer Zukunft nach wie vor private Verbindungen und Betriebsmodelle getrennt vom Internet dazugehören. Hinzu kommt, dass bei Multi-Clouds eine durchgängige Back-up-Historie nur schwierig zu realisieren ist. Bei einem Defekt einer Speichereinheit auf verteilten virtuellen Maschinen kann es sein, dass man lediglich den letzten Stand vor dem Crash oder im schlimmsten Fall nur noch das Basis-Template zurückbekommt. Eigene Infrastrukturen und Datenbanken werden deshalb nicht einfach verschwinden. Und selbst wenn, müssen auch diese entweder von der internen IT oder einem Dienstleister verwaltet, orchestriert, durchgängig synchronisiert und von Programmierern customized werden.