GenAI und die Vertrauensfrage

Warum künstliche Intelligenz Digital Trust noch dringlicher macht

Uhr
von Nicolas Zahn, Managing ­Director, Swiss Digital Initiative

Künstliche Intelligenz – insbesondere in der Form von generativer KI wie Large Language Models – verstärkt das Bedürfnis nach Digital Trust und wirft spannende Fragen bei Organisationen auf, welche die Technologie nutzen möchten.

Unter dem Begriff Digital Trust wird seit einigen Jahren das Vertrauensverhältnis zwischen Anbietern und Nutzern digitaler Technologien definiert. Das Thema erfuhr in der jüngeren Vergangenheit mehr Aufmerksamkeit. Diverse Organisationen haben sich mit der Definition und den Frameworks zur Umsetzung auseinandergesetzt, darunter das vom World Economic Forum lancierte Digital Trust Framework, an dessen Arbeitsgruppe die Swiss Digital Initiative mitwirken durfte (siehe Grafik):

Digital Trust Framework

(Source: World Economic Forum)

Digital Trust geht über rein technische Massnahmen (wie etwa verschlüsselte Daten) hinaus und kombiniert verschiedene Dimensionen, von Cybersicherheit über Datenschutz bis hin zu Fragen der transparenten Kommunikation oder des Designs gewisser Anwendungen. Werden User etwa bewusst manipuliert, gewissen Aktionen zuzustimmen (wie im Falle der Dark Patterns bei Cookie-Bannern), so ist das kein vertrauensvoller Umgang mit ihnen. 

Vertrauen kennen wir alle aus unserem privaten und beruflichen Alltag und schätzen es als wichtige Ressource. Wir arbeiten gerne mit Personen und Organisationen zusammen, denen wir vertrauen. Wir nutzen lieber ein vertrauenswürdiges Produkt als eines, dem wir nicht trauen. Und wir geniessen gerne das Vertrauen anderer Personen und Organisationen. 

In der analogen Welt fällt es uns meist relativ leicht, die Vertrauenswürdigkeit abzuschätzen, entweder weil wir über entsprechende Erfahrungen und Wissen verfügen oder weil wir uns auf bestimmte Regeln und Gesetze verlassen können. Wir haben zum Beispiel keine Angst, elektronische Geräte zu nutzen, da wir wissen, dass diese entsprechend zertifiziert wurden.

KI als Brandbeschleuniger

In der digitalen Welt sieht das anders aus. Lange haben sich Nutzerinnen und Nutzer digitaler Dienste die Vertrauensfrage nicht unbedingt gestellt, doch aufgrund von Skandalen und Enthüllungen bröckelt das Vertrauen in die digitale Welt und stellt Anbieter digitaler Dienstleistungen vor die alles andere als triviale Herausforderung, das Vertrauen der Kundinnen und Kunden erst einmal zu gewinnen.

Künstliche Intelligenz wirkt hier als Brandbeschleuniger, wirft sie doch nicht nur komplexe gesellschaftliche und politische Fragen auf, sondern wird auch immer besser darin, menschliche Intelligenz vorzutäuschen. Interagiere ich gerade mit einem Menschen oder einer Maschine auf der Kundenseite meiner Krankenkasse? Entscheidet ein Algorithmus oder ein Sachbearbeiter über meinen Kreditantrag bei meiner Bank? Kontrolliert eine Beamtin oder ein Machine Learning Model meine Steuerklärung? Und sehe ich ein echtes Bild auf diesem Wahlplakat oder einen durch generative KI erstellten Deepfake? 

Transparenz wird wichtiger

Während Automated Decision Making schon länger bekannt ist, benutzt und kritisch betrachtet wird, etwa durch Algorithmwatch, machen generative KI und Large Language Models die Vertrauensfrage nochmals wichtiger, weil die KI nun direkter für die User sichtbar ist und mit ihnen interagiert.

Für Anbieter digitaler Dienste ist es deshalb nochmals wichtiger, transparent zu sein, klar zu kommunizieren, Sicherheit und Datenschutz hochzuhalten und sich der Grenzen von KI im Design ihrer Dienstleistungen und Produkte bewusst zu sein. Denn auch die tollste KI nützt nichts, wenn die User aufgrund fehlenden Vertrauens diese nicht nutzen wollen. Zahlreiche Frameworks, Zertifizierungen, aber auch neue Regulierungen wie der EU AI Act zeigen, dass Digital Trust kein Nice-to-have mehr ist, sondern je länger, desto mehr – auch dank KI – zu einem Must-have wird.

Webcode
4c74WuRW