Warum KI kein Wunderwerkzeug ist
Künstliche Intelligenz kann uns das Leben in vielen Bereichen erleichtern. In der Technologie schlummern aber auch zahlreiche Gefahren. Der Rechtswissenschaftler Florent Thouvenin entwickelt mit akademischen Partnern rund um den Globus Ideen, wie KI optimal reguliert werden könnte.
Als Ende des letzten Jahres die amerikanische Firma OpenAI den Chatbot ChatGPT lancierte, staunte die Welt. Viele waren überrascht, was mit Hilfe von künstlicher Intelligenz alles möglich ist. So lassen sich mit dem Chatbot mehr oder weniger elaborierte Texte generieren, wissenschaftliche Papers kurz und knapp zusammenfassen, aber auch Programme schreiben oder von der einen in eine andere Programmiersprache übersetzten. Zur anfänglichen Euphorie über mögliche Arbeitserleichterungen gesellten sich aber schon bald auch Ängste und Bedenken. Denn der Chatbot kann zwar intelligentes Verhalten simulieren, produziert zuweilen aber schlicht Nonsens.
Angesichts der rasanten Entwicklung von künstlicher Intelligenz und der gesellschaftlichen Risiken, die von der potenten Technologie ausgehen, fordert ein offener Brief des amerikanischen Future of Life Institute deshalb einen sechsmonatigen Unterbruch bei der Weiterentwicklung von KI-Systemen, die leistungsfähiger als ChatGPT4 sind. Dies, um die Software transparenter und vertrauenswürdiger zu machen. Zu den Unterzeichnern der öffentlichen Stellungnahme gehören prominente Köpfe wie etwa der israelische Historiker und Buchautor Yuval Harari und der US-Unternehmer Elon Musk.
Chatbots können nicht denken
Nicht unterschrieben hat dagegen Florent Thouvenin. Der Rechtswissenschaftler der UZH beschäftigt sich schon seit längerem mit den Auswirkungen von algorithmischen Systemen und künstlicher Intelligenz auf die Gesellschaft und mit den Herausforderungen für das Rechtssystem, die damit verbunden sind. Thouvenin ist Professor für Informations- und Kommunikationsrecht und leitet an der UZH das Center for Information Technology, Society, and Law (ITSL). Dem geforderten Unterbruch steht er skeptisch gegenüber. "KI ist kein Wunderwerkzeug", sagt der Rechtswissenschaftler, "Chatbots wie ChatGPT können sehr schnell sehr viel rechnen – sie können aber weder verstehen noch denken und sie haben auch keinen eigenen Willen."
Thouvenin sieht vor allem zahlreiche Chancen, die die neue Technologie bietet. Wichtig sei es, Anwendungen von künstlicher Intelligenz rechtlich so zu erfassen, dass die Chancen genutzt und die Risiken minimiert werden können. Gedanken dazu hat er sich bereits 2021 gemeinsam mit Kolleg:innen in einem Positionspapier der Digital Society Initiative (DSI) der UZH gemacht (siehe Kasten). Mit Partnern in Japan, Brasilien, Australien und Israel analysiert er nun im "AI-Policy-Projekt", wie verschiedene Rechtssysteme auf die grossen Fortschritte bei der Entwicklung von KI reagieren. Dabei werden Staaten untersucht, die sich – wie die Schweiz – genau überlegen müssen, wie sie sich gegenüber den regulatorischen Supermächten EU und USA positionieren wollen, um die Entwicklung dieser Technologien zu fördern und zugleich die eigenen Bürger vor Nachteilen zu schützen.
Die politische Diskussion zu diesem wichtigen Thema steht vielerorts noch am Anfang. Das gilt auch für die Schweiz. Am weitesten gediehen ist die Regulierung in der EU. Im Juni wurde ein Entwurf für das weltweit erste KI-Gesetz von den EU-Parlamentarierinnen und -Parlamentarier angenommen. Nun haben sich vor kurzem Vertreterinnen und Vertreter von EU-Parlament und EU-Staaten auf Grundzüge des "AI Acts" geeinigt. Das KI-Gesetz der EU fokussiert auf die Risiken, die von künstlicher Intelligenz ausgehen, und teilt diese in vier Kategorien ein: von unannehmbaren Risiken (dazu gehören etwa KI-Systeme, die von Strafverfolgungsbehörden eingesetzt werden können, um Menschen in öffentlichen Räumen in Echtzeit durch biometrische Fernerkennung zu identifizieren) bis zu risikoarmen Anwendungen. Chatbots wie ChatGPT würden in dieser Verordnung erlaubt bleiben, müssten aber transparenter werden (etwa indem Deepfakes als solche erkennbar wären).
"Es besteht die Gefahr, dass KI-Gesetze die Technologie hemmen, ohne die Probleme zu lösen", sagt Rechtswissenschaftler Florent Thouvenin. (Source: UZH)
Etwa wenn es darum geht, Diskriminierung zu verhindern – zum Beispiel bei der Stellensuche. Schon heute verwenden grosse Unternehmen KI-Systeme, um Bewerbungen zu selektionieren. Diese Systeme können Menschen diskriminieren, wenn sie mit Daten trainiert worden sind, die einen Bias, also eine Voreingenommenheit, enthalten. Ein bekanntes Beispiel ist, dass Frauen bei der Bewerbung auf Stellen im Bereich der Informatik diskriminiert werden, weil die Daten, mit denen die Systeme trainiert wurden, zeigen, dass bisher mehr Männer als Frauen eingestellt worden sind. "Das ist problematisch", sagt Thouvenin, "für diese und ähnliche konkrete Probleme müssen wir Lösungen finden."
Beispielsweise indem das Datenschutzrecht durch einen neuen Grundsatz ergänzt wird, nach dem niemand aufgrund seiner beziehungsweise ihrer Personendaten in rechtlich relevanter Weise diskriminiert werden darf. Wegen KI müsse man die Rechtsordnung in der Schweiz nicht neu denken, sondern sicherstellen, dass bestehende Normen auch in diesem Kontext funktionieren, ist der Rechtswissenschaftler überzeugt. Einige Normen und Gesetze müssten an die neuen Möglichkeiten, die sich mit KI eröffnen, angepasst werden. Bei anderen reiche es, wenn die Gerichte die bestehenden Normen auf die neuen Phänomene sinnvoll anwenden.
Neue Ideen entwickeln
Noch hat die Schweiz nicht damit begonnen, die Herausforderung KI umfassend zu analysieren und passende rechtliche Lösungen zu entwickeln. Viele andere Nationen sind in der gleichen Situation. "Länder in anderen Erdteilen haben oft einen ganz anderen Blick auf die KI-Problematik als wir hier in Europa", sagt Thouvenin. Deshalb sei es für die anstehenden politischen Diskussionen hilfreich, zu sehen, wie unterschiedliche Rechtsordnungen und -kulturen mit KI umgehen. Um diese Vielfalt zu beleuchten, haben er und sein Zürcher Kollege Peter Picht gemeinsam mit Forschenden der japanischen Kyoto University das AI-Policy-Projekt lanciert. Mittlerweile ist daraus ein kleines Netzwerk entstanden, dem auch Wissenschaftler:innen aus Australien, Israel und Brasilien angehören.
"In Japan beispielsweise nimmt man das Phänomen KI ganz anders wahr als bei uns", sagt Thouvenin, "dort setzt man vor allem grosse Hoffnungen in die Technologie." Und im Gegensatz zu Europa dreht sich die Diskussion rund um KI viel weniger um den Einzelnen und viel stärker um das Kollektiv. Dies wurde dem Rechtswissenschaftler klar, als er mit den japanischen Kollegen über die Gefahr der Manipulation durch künstliche Intelligenz sprach. "Bei uns geht es in diesem Zusammenhang vor allem um das Individuum und seine Autonomie im Denken und Handeln", sagt Thouvenin, "wird diese eingeschränkt, finden wir das höchst problematisch." In Japan sei die Autonomie des Einzelnen aber nicht so zentral und man fände die Manipulation von Bürgern durchaus sinnvoll, wenn davon die ganze Gesellschaft profitiere.
Beispielsweise wenn Menschen digital "genudgt" – angestupft – werden, indem sie bestimmte Informationen erhalten, die ihr Verhalten in die gewünschte Richtung lenken. Ein solcher für uns ungewohnter Blick auf KI könne auch die Diskussion in der Schweiz bereichern, ist Thouvenin überzeugt. "Eine globale Perspektive kann es uns erleichtern, unseren Handlungsspielraum besser zu ermessen, und sie kann uns helfen, neue interessante Ideen im Umgang mit KI zu entwickeln."
Aktuell entwickeln die Forschenden des AI-Policy-Projekts eine Website, auf der unterschiedliche Lösungsansätze und -ideen, die in den beteiligten Ländern zur Diskussion stehen, zusammengestellt werden. Künftig soll diese Website durch die Positionen weiterer Länder ergänzt werden. Ziel der Plattform ist es, den Regulierungsdiskurs international zu stimulieren und Entscheidungsträger:innen in Politik, Wirtschaft und Verbänden dabei zu unterstützen, sich differenziert und informiert mit dem Thema zu beschäftigen. Auch in der Schweiz, wo die Bundesverwaltung bis Ende nächstes Jahr eine politische Auslegeordnung erarbeiten und den Handlungsbedarf und Möglichkeiten für Massnahmen aufzeigen wird.
DSI-Positionspapier: Rechtsrahmen für KI
Im Positionspapier "Ein Rechtsrahmen für Künstliche Intelligenz» haben sich Wissenschaftlerinnen und Wissenschaftler aus unterschiedlichen Disziplinen 2021 mit rechtlichen Fragen von KI auseinandergesetzt – entstanden ist es im Rahmen der Digital Society Initiative der Universität Zürich. Die Wissenschaftlerinnen und Wissenschaftler gehen in ihrer Stellungnahme davon aus, dass der Einsatz von KI nicht zu völlig neuen rechtlichen Herausforderungen führt, sondern weitgehend durch eine sinnvolle Anwendung und eine punktuelle Ergänzung bestehender Gesetze gelöst werden kann. Zudem plädieren sie dafür, dass die Schweiz von der EU unabhängige Lösungsansätze entwickeln soll.
Insbesondere identifizieren die Forscher:innen fünf Herausforderungen, die rechtlich erfasst werden müssen: Der Einsatz von KI sollte für Nutzer:innen erkennbar und ihr Funktionieren nachvollziehbar sein, sie soll Menschen weder diskriminieren noch auf problematische Weise manipulieren. Geregelt werden müssen zudem Sicherheits- und Haftungsfragen, die sich in diesem Zusammenhang neu stellen. So stellt sich beispielsweise die Frage, wer bei Unfällen, die von autonomen Fahrzeugen oder Drohnen verursacht werden, verantwortlich ist und haften muss.
Das Positionspapier "Ein Rechtsrahmen für Künstliche Intelligenz" ist auf der Website der Digital Society Initiative (DSI) und des Center for Information Technology, Society, and Law (ITSL) zu finden.
Dieser Beitrag ist zuerst bei "UZH-News" erschienen.