Warum die IT zerfällt - und was das bedeutet
Über die Zeit hinweg betrachtet, zerfallen unsere IT-Lösungen in Einzelteile. Das hat zur Folge, dass Systeme aus immer mehr einzelnen Bestandteilen bestehen, die es zu integrieren und zu betreiben gilt. Daniel Liebhart erklärt, warum das so ist.
Der Zerfall der IT in Einzelteile lässt sich belegen. Das Marktforschungsunternehmen Profondia erfasst in der Schweiz bei mehr als 10 000 Unternehmen jährlich Daten über die bestehende IT-Infrastruktur und veröffentlicht diese in einem "IT-Markt-Report". Und diese Zahlen sprechen eine deutliche Sprache. Die Anzahl der Grossrechner und Midrange-Computer für zentrale Anwendungen nimmt drastisch ab. Allein im Jahr 2017 um 43,3 Prozent respektive 8,9 Prozent. Dem gegenüber nimmt die Anzahl der dezentralen Server und Endgeräte insbesondere Tablets und Smartphones stetig zu. Zwei weitere Entwicklungen verstärken diesen Zerfall: die zunehmende Virtualisierung und das Internet der Dinge. Allein die Anwendung der gängigen Faustregel "4 virtuelle Server pro CPU Core" bedeutet, dass beim Einsatz modernster Prozessortechnologie heute über 100 virtuelle Server auf einem einzigen physischen Prozessor laufen können. Was für die zentrale Infrastruktur gilt, gilt noch mehr im Bereich der Endgeräte. Gemäss dem Visual Networking Index (VNI) verdoppelt sich die durchschnittliche Anzahl vernetzter Geräte pro Einwohner in Westeuropa von etwas mehr als 5 im Jahr 2017 auf knapp 10 in 3 Jahren. Es kann davon ausgegangen werden, dass auf den durchschnittlichen Schweizer Arbeitsplatz bezogen, diese Zahl bereits heute erreicht ist.
Das System als Ganzes
Dieser "Zerfall" lässt sich nicht aufhalten und hat zur Folge, dass eine gut funktionierende IT auf immer mehr einzelne Bestandteile angewiesen sein wird; und wir uns als Verantwortliche für Entwicklung, Bereitstellung und Betrieb mit den Eigenschaften und Wechselwirkungen eines solchen Gesamtsystems auseinandersetzen müssen. Damit gewinnt ein oftmals vernachlässigter Begriff wieder an Bedeutung: das System. Ein Begriff, der eigentlich "das Zusammengesetzte" bedeutet und vom Biologen Ludwig von Bertalanffy als "Komplex interagierender Elemente" definiert wurde. Systeme werden gemäss ihrer Komplexität in verschiedene Typen aufgeteilt. Diese Aufteilung geht auf den Mathematiker Warren Weaver zurück, der neben Claude E. Shannon als einer der Begründer der Informationstheorie gilt. Es gibt gemäss Weaver "Systeme organisierter Einfachheit", die durch eine eingeschränkte und kontrollierbare Anzahl von Variablen gekennzeichnet sind. Bisher konnten IT-Systeme dieser Kategorie zugeordnet werden. Der Zerfall hat jedoch zur Folge, dass wir es zunehmend mit "Systemen organisierter Komplexität" zu tun haben. Diese Systeme sind durch sehr grosse Wechselwirkungen zwischen den einzelnen Systemteilen gekennzeichnet. Und wenn wir nicht aufpassen, werden unsere IT-Umgebungen zu "Systemen unorganisierter Komplexität", die durch eine Vielzahl von Variablen gekennzeichnet sind, die sich kaum oder lediglich mittels statistischer Methoden verwalten lassen. Wir tun gut daran, diese Erkenntnisse und die entsprechenden Ansätze wie beispielsweise das Systemdenken und das Systems Engineering in unser IT-Engineering mit einfliessen zu lassen.
Vom Systembegriff zum Systemhaus
Eine weitere interessante Konsequenz dieser Entwicklung ist die Tatsache, dass traditionelle Systemhäuser und deren Angebot wieder vermehrt gefragt sind. Es gilt die Vielzahl der Einzelteile über ihren gesamten Lebenszyklus hinweg zu bewirtschaften und deren Integration in ein funktionierendes Gesamtsystem zu gewährleisten. Was zunehmend eine Kombination isolierter ITAM-Ansätze – IT als Software/Hardware Asset Management – mit klassischen Integrationstätigkeiten bedeutet. Die Arbeit wird uns nicht ausgehen!
Dieser Beitrag erschien in der Netzwoche-Ausgabe 10/2019. Alle Inhalte des Hefts finden Sie hier.