Auf dem Weg zur menschenzentrierten KI
Bund, Kantone und Gemeinden machen ihre ersten Gehversuche mit künstlicher Intelligenz. Doch es gibt noch viel zu tun, wie die Referierenden der diesjährigen SGI-Tagung aufzeigten. Sie plädierten für mehr Ethik, mehr Regionalität und mehr Zusammenarbeit im KI-Bereich. Im Podcast spricht Manuel Kugler von der SATW darüber, wie Behörden KI einsetzen und welche Herausforderungen sich ihnen dabei stellen.
Überall spricht man über künstliche Intelligenz (KI). Öffentliche Verwaltungen sind da keine Ausnahme. Und so ist es auch wenig verwunderlich, dass sich die diesjährige Plenartagung Städte- und Gemeindeinformatik dem Thema annahm. Etwas mehr als 80 Personen aus Verwaltung, Wirtschaft und Forschung besuchten die 15. Ausgabe des Events, der am 10 November 2023 im Berner Rathaus über die Bühne ging. Durchgeführt wurde der Anlass von der Organisation Digitale Verwaltung Schweiz (DVS), dem Schweizerischen Städteverband (SSV), dem Schweizerischen Gemeindeverband (SGV), dem Verein Schweizerische Städte- und Gemeinde-Informatik (SSGI), dem Verein Zürcher Gemeindeschreiber und Verwaltungsfachleute (VZGV) sowie wichtigen ICT-Partnern.
In seinem Grusswort wies Peppino Giarritta, Beauftragter von Bund und Kantonen für die Digitale Verwaltung Schweiz, darauf hin, dass die Trend-Technologie KI in Verwaltungen jetzt schon Realität sei. Wie bei jeder neue Technologie gelte es, zwischen Chancen und Risiken abzuwägen - "Wir tun dies mit den Werkzeugen und Erfahrungen von Gestern".
Indem sich die Verwaltung den mit KI verbundenen Herausforderungen stelle und Lösungen entwickle, erlange sie mehr Bedeutungshoheit zwischen Politik und Verwaltungspraxis. Es sei wichtig, Zukunftstrends früh zu erkennen und sich damit auseinander zu setzen. "Sie lassen sich nicht aufhalten, jedoch lenken", gab Giarritta dem Publikum auf den Weg.
Für mehr Austausch
Er blieb damit nicht der einzige. Manuel Kugler, Programm-Manager Daten & KI an der Schweizerischen Akademie der Technischen Wissenschaften (SATW), verstärkte die Aussage sogar noch: Es sei wichtig, die Entwicklung zu beeinflussen, befand er in seinem Vortrag. Möglichkeiten dazu bieten etwa KI-Algorithmen auf der Coding-Plattform "Github", die von allen, die dies wollen, weiterentwickelt werden könnten. In seinem Vortrag erwähnte Kugler eine SATW-Liste mit Empfehlungen für eine KI-Strategie aus dem Jahr 2019, die auch heute noch aktuell sei. So gelte es, die Zuverlässigkeit und nachvollziehbarkeit der Systeme zu fördern, aber auch das Vertrauen der Bevölkerung zu der neuen Technologie zu stärken.
Manuel Kugler, Programm-Manager Daten & KI an der Schweizerischen Akademie der Technischen Wissenschaften (SATW). (Source: zVg)
Bei der Entwicklung von KI-Lösungen stehe die Verwaltung besonders in der Pflicht, hob Kugler hervor. Sie müssten verantwortungsvoll mit den Daten und der Schnittstelle zwischen Mensch und Maschine umgehen. Für die Zukunft plädierte er dafür, "dass wir lokal die Technologie zur Verfügung stellen, den Zugang dazu erleichtern und uns darüber austauschen, wofür wir sie einsetzen wollen".
Mehr von Manuel Kugler und seinen Eindrücken der SGI-Tagung hören Sie im unten eingebetteten Podcast.
Datengenossenschaften als Lösungsansatz
Edy Portmann, Co-Direktor des Human-IST Instituts und Leiter der Soft und Cognitive Computing Gruppe an der Universität Freiburg, pflichtete Kuglers Ausführungen in vieler Hinsicht bei. Der Schwerpunkt seines Vortrags lag auf digitaler Ethik – oder darauf, "wo Psychologie auf Ingenieurwissenschaft trifft", wie es im Titel hiess. Insbesondere grosse Tech-Konzerne entwickelten neue Lösungen in Form von Business Engineering, also um den ROI (Return of Investment) zu verbessern, erklärte der Referent. Im Gegensatz stelle der von ihm favorisierte Life-Engineering-Ansatz die Verbesserung der Lebensqualität des Menschen in den Vordergrund.
Dazu müsse bei der Innovation nicht nur die Technologie selber berücksichtigt werden, sondern auch Menschen und Ethik sowie Umwelt und Nachhaltigkeit. Um dies zu erreichen, brauche es breitere, transdisziplinäre Diskussionen, die "über Universitätsgrenzen in die Konzerne hinein" gehen müssten.
Des Weiteren plädierte Portmann für einen Wechsel von messungsbasierter hin zu wahrnehmungsbasierter Technologie. Denn: Leute könnten sich generell nicht mit exakten Zahlen anfreunden. Dies verdeutlichte er anhand der Frage: Wie warm ist es? Menschen, führte er aus, antworteten darauf: "Zu heiss", "zu kalt" oder "gerade richtig", während ein Sensor einen Wert wie "23,25 Grad" ausgebe. "Wenn wir nur Zahlen messen, adressieren wir nicht die Lebensqualität", kommentierte er das Beispiel.
In der Fragerunde erklärte Portmann, warum Regionalität bei der Entwicklung von KI-Lösungen wichtig ist. So habe die Gesellschaft je nach Region unterschiedliche Wertvorstellungen. "One Size Fits all ist nicht fit für die Zukunft", sagte der Forscher. Europa habe mit seinen vielen Ländern und Sprachen grosse Herausforderungen bei der Entwicklung eigener KI-Lösungen. Auf regulatorischem Weg sollte Europa von KI-Anbietern einfordern, das für Europa typische föderalistische Denken demokratischer Systeme zu berücksichtigen. Geschehen könnte dies beispielsweise mittels zusätzlicher Module.
Kurz beschrieb er auch seine Idee der Datengenossenschaften. Sie könnten ein experimenteller Raum sein, um ethisches Denken in KI-Systeme einzubringen. Grosse Tech-Konzerne könnten via Programmierschnittstellen (APIs) auf die darin angesammelten Daten zugreifen. Dabei würde sichergestellt, dass jene, die sich an den Genossenschaften beteiligten, auch etwas für ihren Anteil zurück erhielten. Leider, merkte Portmann an, hätten die Google, Meta und Co. kein Interesse gezeigt, als er ihnen das Konzept präsentiert habe.
Rahmenbedingungen und Verhaltenskodex
Estelle Pannatier, Policy & Advocacy Managerin bei Algorithmwatch Schweiz, nannte in ihrem Vortrag mehrere Beispiele für von Behörden eingesetzte algorithmische Systeme. Sie kommen etwa bei der Zuteilung von Schülern an Schulen, im Migrationsamt zur Altersschätzung geflüchteter Menschen oder bei der Polizei fürs so genannte Predictive Policing zum Einsatz.
Zwar, merkte die Referentin an, fällten die meisten solcher Systeme selber keine Entscheidungen, sondern geben Empfehlungen ab, die ein Mensch dann überprüfen sollte. Pannatier gab aber zu bedenken, dass die Menschen generell dazu neigten, diese Empfehlungen unhinterfragt zu übernehmen, nicht zuletzt aus Kostengründen. Oft bleibe im Dunkeln, wie eine Entscheidungsempfehlung zustande gekommen sei und es bestehe das Risiko von Diskriminierung.
Estelle Pannatier, Policy & Advocacy Managerin bei Algorithmwatch Schweiz. (Source: zVg)
Andere Risiken ortete die Referentin in Zusammenhang mit Überwachungssystemen und mit Desinformation. Auf letzteres ging Algorithmwatch in einer zu den Wahlen 2023 veröffentlichten Untersuchung ein. Dabei zeigte die Organisation, wie schlecht ChatGPT und Co. bei Wahlempfehlungen abschneiden.
Zu den Lösungsansätzen, die Pannatier präsentierte, gehören Rahmenbedingungen zu Entwicklung und Einsatz von KI-Systemen. Des Weiteren plädierte sie für öffentliche Verzeichnisse der eingesetzten Algorithmen, wie der Kanton Zürich eines unterhält. Grundsätzlich gehe es darum, für Transparenz und Nachvollziehbarkeit zu sorgen, Kontrolle und demokratische Aufsicht einzuführen und Grenzen des KI-Einsatzes festzulegen.
Wo die Bundesverwaltung überall KI einsetzt, trägt das im Bundesamt für Statistik (BFS) angesiedelte Kompetenznetzwerk für künstliche Intelligenz (CNAI) zusammen. Dessen Head, Kerstin Johansson Baker, erläuterte in ihrem Referat seine weiteren Aufgaben und Ziele. Das CNAI soll demnach als Ort für Innovationen im KI-Bereich fungieren und entsprechende Kompetenzen bündeln. "Noch sind wir klein - wie immer in der Schweiz", räumte die Referentin ein. Man strebe aber an, über die Bundesverwaltung hinaus zu agieren und sich mit weiteren Schweizer Akteuren in diesem Bereich zu vernetzen. Die Herausforderungen, mit denen sich das Kompetenzzentrum aktuell befasst, reichen von der Qualität der eingesetzten Daten, über die sichere Speicherung vertraulicher Informationen bis hin zu Haftungsfragen.
Kerstin Johansson Baker, Head CNAI, BFS. (Source: zVg)
Der Bund legte seine ersten KI-Richtlinien bereits 2020 fest, wie Johansson Baker erwähnte. Unlängst entstand nun auch ein freiwilliger Verhaltenskodex. Er soll Bundesbehörden für die Grundprinzipien einer menschenzentrierten und vertrauenswürdigen Datenwissenschaft sensibilisieren, wie Sie hier lesen können.
Als Verwaltung habe man im Bereich KI der Bevölkerung gegenüber eine besonders grosse Verantwortung, rief die Referentin in Erinnerung. Entsprechend wichtig sei es, Daten zu evaluieren und rechtliche Fragen zu klären. "Wir sind nicht in einem juristischen Vakuum. Und wir haben Einfluss auf die Gesellschaft", schloss sie ihren Vortrag.
Vergangenes Jahr standen Beispiele und Tools für die erfolgreiche Digitalisierung auf dem Programm der SGI-Tagung. Zum Erfolg wurden viele davon dank Zusammenarbeit, wie Sie hier lesen können.