Wie AWS KI in jedes Unternehmen bringen will
Viele Unternehmen machen gerade ihre ersten Schritte mit künstlicher Intelligenz. Doch Amazon setzt die Technologie schon seit Jahrzehnten ein, wie Swami Sivasubramanian, VP, Database, Analytics and Machine Learning bei Amazon Web Services (AWS) im Interview sagt. Er erklärt, was AWS-Kunden davon haben und wie sich die unlängst lancierte Schweizer AWS-Cloud entwickelt.
Im November 2022 startete AWS seine Schweizer Cloud-Region. Wie lief es seither?
Swami Sivasubramanian: Wir und unsere Schweizer Kunden erleben eine aufregende Zeit. Schweizer Unternehmen gehörten zu den ersten, die Cloud-Technologien einsetzten, und mehr als Zehntausend aktive Kunden nutzen AWS in der Schweiz. Dazu gehören Unternehmen wie Roche, Richemont, Swisscom und viele mehr. Die Anwendungen erstrecken sich über alle Branchen, vom Versicherungs- bis zum Gesundheitswesen. Es ist aufregend, Enabler dieser Unternehmen zu sein. Seit dem Start der Schweizer Cloud-Region stellen wir fest, dass Kunden noch schneller die Vorteile der Cloud nutzen und ihre IT durch AWS komplett transformieren wollen. Wir befinden uns gewissermassen im goldenen Zeitalter der IT.
Wo und wie müssen Sie die Schweizer AWS-Cloud-Region noch überarbeiten oder verbessern?
Unabhängig davon, ob wir eine AWS-Region eröffnen oder einen neuen Service lancieren, ist es für uns elementar wichtig, unseren Kunden zuzuhören. Von unseren Kunden aus regulierten Branchen haben wir etwa gehört, dass für sie besonders Compliance-Zertifizierungen wie ISO oder SOC wichtig sind. Darüber hinaus priorisierten wir vor allem bei Services, wie Verschlüsselung, Confidential Computing, Container und Analytics. Seit der Lancierung der Region haben wir über 60 zusätzliche Services, insbesondere auch High-Memory-Instanztypen und Container-Services, hinzugefügt. Einige Services sind noch in der Pipeline und werden laufend auf Basis von Kundenfeedbacks und Neuentwicklungen ergänzt. Für uns ist es noch Day 1, wie wir zu sagen pflegen – und wir hatten noch nicht einmal Zeit für eine Kaffeepause.
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind in letzter Zeit in den Medien viel diskutiert worden. Wie haben Sie die vergangenen Monate wahrgenommen? Hat die KI gerade eine Revolution durchgemacht?
Wir erleben gerade einen Renaissance-Moment mit KI und ML. Generative KI-Applikationen, die zum Beispiel die Möglichkeit bieten, via Chat umfangreiche Texte oder Bilder zu erstellen, beflügeln die Fantasie der Endnutzerinnen und Endnutzer. Diese Technologien sind zwar sehr vielversprechend, stehen aber in vielerlei Hinsicht noch am Anfang. Es bedarf noch vieler Investitionen und weiterer Forschung und Entwicklung, um damit die Bedürfnisse von Unternehmenskunden abzudecken. Dazu müssen sie akkurater, sicherer, verantwortungsvoller und frei von Verzerrungen werden. Das sind auch die Bereiche, in die wir investieren.
Wie tun Sie dies?
Wir glauben, dass generative KI zu mehr genutzt werden kann als für Chatbots und Suchanwendungen. Wir bieten unter anderem einen Dienst namens Amazon Bedrock an. Damit können Unternehmen und Start-ups das Potenzial generativer KI voll ausschöpfen, indem sie etwa die für grosse Sprachmodelle genutzten Datengrundlagen nach ihren Bedürfnissen anpassen. Wir glauben auch, dass – entgegen dem aktuellen Eindruck – die Welt nicht von einem einzelnen Basismodell dominiert werden wird. Es wird neue Sprachmodelle anderer Anbieter geben, die sich für unterschiedliche Anwendungsfälle eignen. Entsprechend bietet Bedrock die Möglichkeit, aus verschiedenen Basismodellen auszuwählen. Schliesslich sind all diese KI-Modelle unglaublich teuer zu trainieren und deshalb auch teuer im Betrieb – unter anderem auch wegen des enormen Energiebedarfs. Entsprechend benötigen sie eine erstklassige Machine-Learning-Infrastruktur. Und wir haben in eine solche investiert.
Während über ChatGPT und Googles «PaLM» prominent berichtet wurde, war es um Amazon und AWS eher still. Woran liegt das?
Amazon hat 20 Jahre Erfahrung mit der Anwendung von maschinellem Lernen. All diese Erfahrung und das daraus Gelernte machen wir durch AWS für mehr als hunderttausend Kunden zugänglich. Amazon Sagemaker, unser Machine-Learning-Service, ist die weltweit am meisten genutzte Plattform für ML-Applikationen. Unsere Mission ist es, aus jedem Unternehmen ein KI-Unternehmen zu machen. Wir wollen KI demokratisieren, sodass jeder seine KI-Anwendung entwickeln kann, anstatt auf eine einzige Drittanwendung zu setzen. Unsere ML-Technologie steckt jetzt schon in einer Vielzahl von Anwendungen diverser Branchen.
Wo sehen Sie die Schweiz im Bereich der künstlichen Intelligenz?
Ich habe im Rahmen meiner Doktorarbeit selbst einige Zeit in der Schweiz verbracht und geforscht. Die ETH Zürich gehört zu den besten Hochschulen der Welt, wenn es um verteilte Systeme, KI und ML geht. Schweizer Forschende arbeiten in den Top-Forschungslaboren der Welt und für führende KI-Unternehmen wie Amazon. Ich habe grossen Respekt vor der Schweiz, ihren Universitäten und ihren Forschungslaboren. AWS arbeitet mit vielen akademischen Forschungseinrichtungen im Rahmen unserer KI- und ML-Programme zusammen und wir wollen diese weiter ausbauen.
Sehen Sie auch Schwächen in der Schweizer KI-Forschung? Etwas, das die Schweiz von anderen Ländern lernen kann?
Was mich an Menschen in der Schweiz so fasziniert, ist ihre Effizienz, gepaart mit ihrem Innovationsgeist. Dabei geht es nicht darum, möglichst viele Stunden zu arbeiten, sondern gut zu planen, effizient zu arbeiten und abzuliefern. Dieses Streben nach Perfektion ist gerade dann wichtig, wenn man an längerfristigen Problemen arbeitet. In einer Welt, in der wir IT wortwörtlich neu erfinden, kommt es genau auf diese Stärke an.
Wie wichtig ist die Schweiz für AWS, wenn es um die Entwicklung von KI geht?
Für AWS ist die Schweiz ein sehr wichtiger Standort. Nicht nur wegen der vielen Kunden, sondern auch wegen der Bedeutung für die europäische und die weltweite Wirtschaft. Wir wollen diese Kunden mit erstklassiger Technologie unterstützen. Darum investieren wir stark in den Standort. So pflegen wir etwa auch Partnerschaften mit Unternehmen wie Swisscom und Softwareone. Wir glauben auch, dass sich die neue AWS-Region für die Schweizer Wirtschaft auszahlt und gehen davon aus, dass dadurch Tausende Stellen über die nächsten 15 Jahre gefördert werden. Wir investieren auch in Bildungsinitiativen, um die Cloud als neue Art der IT zu fördern.
Sie leiten den AWS-Geschäftsbereich mit maschinellem Lernen nun schon seit vielen Jahren. Gibt es etwas, was ML heute kann, was vor fünf Jahren noch nicht möglich war?
Dank Daten und maschinellem Lernen ändert sich grundsätzlich die Art, wie Unternehmen Entscheidungen treffen. Die Zeiten sind vorbei, in denen intuitive Entscheide getroffen wurden. Die Bedeutung von Echtzeitdaten, die Einblicke in die Bedürfnisse von Kunden und die eigenen Geschäftsprozesse ermöglichen, ist stark gestiegen. Lange Zeit standen Business-Entscheidern diese Daten nicht zur Verfügung. Doch mit der Cloud, ihrem unendlichen Speicherplatz, modernsten Datenbanken und erstklassigen ML- und Analytics-Fähigkeiten sind Entscheidungen basierend auf Near-Real-Time-Daten heute möglich.
Und was wird Ihrer Meinung nach in fünf Jahren möglich sein, was heute noch nicht möglich ist?
Ich wollte immer schon in der Zukunft leben und kann es nicht erwarten, dass die Zukunft Realität wird. Zunächst werden sich Innovationen grundsätzlich beschleunigen, da Unternehmen in der Cloud ihre neuen Produkte schneller, günstiger und nachhaltiger entwickeln und skalieren können. Aber generative KI wird grundsätzlich verändern, wie neue Software entwickelt wird. Wir lancierten im Frühling 2023 etwa Amazon Code Whisperer, einen KI-Coding-Begleiter, der das Entwickeln neuer Anwendungen produktiver macht. Schliesslich werden datengetriebene Entscheidungen fast in Echtzeit erfolgen können. Sie müssen nicht mehr drei bis sechs Monate warten, um zu wissen, wie Ihr Unternehmen im aktuellen Geschäftsjahr performt. Sie können beinahe in Echtzeit auf Entwicklungen reagieren.
Auch Cyberkriminelle rüsten mit KI auf; und dabei nehmen sie zunehmend Hyperscaler wie AWS ins Visier. Ist es angesichts dessen nicht gefährlich, AWS Daten anzuvertrauen?
Sicherheit ist unsere höchste Priorität. Wir haben zahlreiche Massnahmen, die dafür sorgen, dass unsere Kerninfrastruktur sicher bleibt. Das geht vom physischen Schutz unserer Rechenzentren über den Schutz unserer Betriebssysteme bis hin zu Massnahmen auf Ebene der virtualisierten Server und Applikationen. Wir haben auch das sogenannte Shared Responsibility Model – Sicherheit ist also eine geteilte Aufgabe zwischen uns und unseren Kunden. Wir stellen unseren Kunden den Support und die Werkzeuge zur Verfügung, damit sie ihre Applikationen sicher verwalten können. Tatsächlich höre ich immer wieder von CIOs und CTOs, dass ihre Applikationen bei uns besser abgesichert sind als im eigenen Rechenzentrum. Denn vieles lässt sich im On-Prem-Rechenzentrum nicht kontrollieren oder steuern. In der Cloud haben sie diese Governance und Kontrolle. Ähnliches gilt für Datenbank- oder Datensicherheit: Hier reicht es nicht, einen einzelnen Datenbankzugang zu schaffen. Stattdessen benötigen sie eine individuell anpassbare Zugriffssteuerung, die unsere Cloud-Umgebung ermöglicht.
Kürzlich gab Amazon die Entlassung Tausender Angestellter bekannt. Wie viele Entlassungen gab es bei AWS?
Wir nehmen diese Entscheidungen niemals auf die leichte Schulter und sind uns bewusst, dass sie das Leben unserer Kollegen beeinflussen. Der Stellenabbau bei AWS ging auf eine Neupriorisierung zurück, die eine Neuzuweisung von Ressourcen erforderlich machte. Wir sind sehr zuversichtlich und optimistisch, was unser Geschäft betrifft, das auch in einem schwierigen wirtschaftlichen Umfeld weiterhin stark ist.
Viele Länder – die EU als Vorreiterin – diskutieren KI-Gesetze. Wie viel Regulierung braucht KI Ihrer Meinung nach?
KI-Systeme sind sehr mächtig und können erstaunliche Dinge tun. Sie können alle Bereiche transformieren, beispielsweise die Art und Weise wie wir arbeiten oder Gesundheitsleistungen beziehen. Wir arbeiten bei Fragen zu KI-Regulierung auch aktiv mit Regulierungsbehörden zusammen. Dabei plädieren wir für einen risikobasierten Ansatz: Bei hohem Risiko – wenn ein KI-System für Entscheidungen genutzt wird, welche die Finanzen, die Gesundheit, die persönlichen Rechte oder Freiheit betreffen – braucht es klare Regulierung, damit die Systeme sicher eingesetzt und implementiert werden. KI-Systeme allein treffen keine Entscheidungen, sie machen Vorhersagen. Für Bereiche mit hohem Risiko muss ein menschliches Urteil mit maschinellem Lernen kombiniert werden. Im Fall kleinerer Risiken – etwa bei der Frage, welchen Film ich als Nächstes streamen soll – dürfte die Besorgnis geringer sein.
Wie sieht es beispielsweise in Rekrutierungsprozessen aus? Wie viel KI ist dort okay?
Bei bestimmten Aufgaben, wie etwa dem Analysieren von Lebensläufen, kann KI nützen. Geht es darum, einen geeigneten Kandidaten zu bestimmen, ist ein Mensch gefragt. Ein automatisiertes System liefert hier nicht immer die richtige Antwort.