Finma erinnert Banken an KI-Risiken
Der KI-Boom macht auch vor der Finanzwelt nicht Halt. Doch bei allen Chancen sollten Finanzdienstleister die Risiken der neuen Technologie nicht vergessen. Die Finma ruft zu robuster Governance und kontinuierlichem Monitoring auf.
Die Schweizer Finanzmarktaufsicht (Finma) nimmt Banken und andere von ihr regulierte Finanzdienstleister in Sachen künstlicher Intelligenz ins Gebet. In einer im Dezember 2024 veröffentlichten Mitteilung macht die Behörde auf Risiken bei der Nutzung von KI aufmerksam. Diese nehmen mit der Nutzung laufend zu und seien mitunter schwer abzuschätzen, heisst es in einer Medienmitteilung.
Als Beispiele nennt die Finma operationelle Risiken, insbesondere Modellrisiken (z. B. mangelnde Robustheit, Korrektheit, Erklärbarkeit oder Bias), datenbezogene Risiken (z. B. Datensicherheit, Datenqualität, Datenverfügbarkeit), IT- und Cyberrisiken, eine steigende Abhängigkeit von Drittparteien sowie Rechts- und Reputationsrisiken.
Noch stünden die meisten Finanzinstitute am Anfang der Entwicklung in Sachen KI, schreibt die Finma unter Berufung auf ihre eigenen Beobachtungen. Entsprechend befinden sich Governance- und Risikomanagement-Strukturen noch im Aufbau. In der Mitteilung erwähnt die Aufsichtsbehörde ein paar oft beobachtete Mängel: So erfolge die Entwicklung häufig dezentral, was wiederum die Umsetzung von Standards und die Zuweisung klarer Verantwortlichkeiten erschwere. Ferner hatten nicht alle Beaufsichtigten "konsistente Kriterien festgelegt, um Anwendungen zu identifizieren, die aufgrund ihrer Wesentlichkeit sowie ihrer spezifischen Risiken und deren Eintrittswahrscheinlichkeit besonderer Aufmerksamkeit im Risikomanagement bedürfen", wie es in der Mitteilung heisst.
In weiteren Kapiteln geht es etwa um die Erklärbarkeit von KI-Ergebnissen, die Qualität der verwendeten Daten sowie die Vorgaben zur Dokumentation.
Governance, Testing, Monitoring
Aus den Beispielen lassen sich die Handlungsempfehlungen der Finma ableiten. Die Banken sollten demnach ihre Governance weiter stärken, um ein angemessenes Management der KI-Risiken mit klar definierten Verantwortlichkeiten und einer transparenten Dokumentation zu gewährleisten. Die Finma spricht sich ausserdem für eine strikte Trennung zwischen der Entwicklung von KI-Anwendungen und deren Überprüfung aus. Die Prüfung sollte unabhängig und durch in diesem Bereich qualifizierte Fachkräfte durchgeführt werden. Die Behörde empfiehlt zudem regelmässige Tests und konstante Überwachungsmechanismen, um die Zuverlässigkeit von KI-Anwendungen zu gewährleisten. Erforderlich sind schliesslich eine klare Dokumentation und präzise Kriterien zur Bewertung der Erklärbarkeit von Modellen.
Konkrete Beispiele, wie KI die Finanzindustrie verändert, finden Sie übrigens in der aktuellen Ausgabe von Fintech & Insurtech, einem Magazin der Netzwoche. Hier geht’s zum Themenschwerpunkt.