Harald Rotter über die Vor- und Nachteile eines RZ-Betriebs in Eigenregie
Die Universität St. Gallen hat sich mit zwei Hochleistungsrechnern im Rechenzentrum Ostschweiz eingemietet. Warum die Hochschule ansonsten auf den Rechenzentrumsbetrieb in Eigenregie setzt und was die entsprechenden Vor- und Nachteile sind, erklärt Harald Rotter, CIO der Universität St. Gallen.
Die Universität St. Gallen hat zwei Hochleistungscomputer, die für Forschungszwecke zum Einsatz kommen. Warum stellt man diese Rechner in ein Rechenzentrum, statt sie beispielsweise am Institut für Informatik zu betreiben?
Harald Rotter: Wir haben im Vorfeld unsere internen Möglichkeiten geprüft. Unsere eigenen Rechenzentren sind für so eine Art von Computern nicht geeignet, denn solche Maschinen haben bezüglich Strom, Kühlung etc. ganz andere Anschlusswerte. Der dafür nötige interne Um- und Ausbau wäre nicht sinnvoll gewesen.
Die Uni St. Gallen betreibt ihre Rechenzentren seit längerem in Eigenregie. Bleibt das so oder ist Outsourcing eine Option?
Sowohl als auch. Wir werden unsere internen Datacenter auf jeden Fall weiter betreiben respektive weiter betreiben müssen. Jedoch sind wir bestrebt, unsere Services soweit wie möglich aus der Cloud zu beziehen.
Was halten Sie von der Idee, alles in eine Public Cloud auszulagern?
Das kommt darauf an, was mit "allem" gemeint ist. Uns hindert vor allem der Datenschutz daran, Teile unserer Services auszulagern. Ich bin sehr pro Cloud eingestellt – doch nicht jeder Anwendungsfall eignet sich für die Cloud. Nur um der Cloud willen auf die Cloud zu setzen, macht keinen Sinn.
Was sind die Vor- und Nachteile eines RZ-Betriebs in Eigenregie?
Für manche Anwendungsfälle gibt es für uns keine andere Option zum Eigenbetrieb. Abgesehen davon ist eine Cloudlösung nicht zwingend billiger. Viele Firmen haben ihre Rechenzentren und Infrastrukturen, historisch bedingt, seit vielen Jahren im Betrieb und somit wahrscheinlich schon oftmals abgeschrieben. Grössere Neuinvestitionen sollten aber heutzutage gründlich überdacht werden.
Der Schweizer Markt für Rechenzentren ist hart umkämpft. Was spricht gegen die grossen Player und für einen Schweizer Anbieter?
Der grösste Vorteil ist der Datenstandort Schweiz – vor allem vor dem Hintergrund des US-amerikanischen Cloud Act, aber auch in Bezug auf Datenschutz im Allgemeinen. Die Wahl eines geeigneten Anbieters hängt allerdings stark von der Grösse des Unternehmens ab: Je kleiner die Firma, desto einfacher gestaltet sich die Zusammenarbeit mit lokalen Cloudprovidern. Für grosse Unternehmen ist es hingegen oftmals einfacher, direkt mit einem der grossen Techkonzerne zusammenzuarbeiten.
Was sind Ihrer Meinung nach die wichtigsten Kriterien bei der Wahl eines Rechenzentrums?
Das hängt stark von den Bedürfnissen einer Unternehmung ab. Im regulierten Bereich gelten viel höhere Anforderungen als für eine Bildungseinrichtung. Unabhängig davon gibt es aus meiner Sicht unter anderem folgende Kriterien zu beachten: Sicherheitslevel (Tier 1- 4), On- und Offboarding-Prozesse, Gerichtsstand, Compliance, Auditfähigkeit, Verfügbarkeit, Nachhaltigkeit respektive die CO2-Bilanz und den Standort.
Die Universität Kyoto hat kürzlich schlechte Erfahrungen mit dem externen Betrieb eines Supercomputers gemacht: Ein Script-Update von HPE hat versehentlich 77 Terabyte an Forschungsdaten inklusive Back-ups gelöscht. Könnte so etwas auch einer Schweizer Hochschule passieren?
Wahrscheinlich könnte das überall auf der Welt passieren. In der Informatik gibt es keine 100-prozentige Sicherheit. Es kann und wird immer wieder Vorfälle geben – egal, ob der Auslöser ein Mensch oder eine Technologie ist. Wir können uns nur bestmöglich auf solche Themen vorbereiten, indem wir beispielsweise mögliche Szenarien durchspielen. Ob der Kyoto-Fall auch bei uns passieren könnte, ist allerdings sehr schwer pauschal zu beurteilen. Dazu fehlen wichtige Informationen.