ChatGPT im Kundenservice - es ist Zeit für Experimente
Mit der Lancierung von ChatGPT wurde ein globaler Hype ausgelöst. Alle reden darüber und Millionen von Anwendern chatten mit dem bekanntesten Bot der Welt. Aber welche Folgen wird die LLM-Technologie auf den Kundenservice von Dienstleistungsunternehmen im Versicherungsbereich und für Organisationen im Schweizer Gesundheitswesen haben?
ChatGPT ist zurzeit in aller Munde, ein Blick in die Medien und auf die Diskussionen auf den Sozialen Plattformen beweist: Die Sache ist wirklich gross. Die gesamte IT-Branche erwartet schon wieder einen fundamentalen Wandel, ist sich aber nicht ganz im Klaren ob zum Guten oder zum Schlechten und selbst bei eingesessenen Tech-Konzernen herrscht helle Aufregung. Wie sollen etwa Versicherungen oder Dienstleistungsunternehmen im Gesundheitsbereich mit dieser dynamischen Lage umgehen? Welche Strategie ist nun die richtige?
Und, wenn keiner mehr anruft?
Bereits 2016, als der erste Chatbot-Hype losgetreten wurde, stellten sich viele Unternehmen aber auch Kundinnen und Kunden die Frage, ob diese neue Technologie allenfalls den Kundendienst umkrempeln würde. Die Mutmassungen von damals erwiesen sich in den darauffolgenden Jahren als übertrieben. Spätestens mit der Corona-Pandemie glühten die Telefonleitungen mehr denn je und auch die E-Mail erlebte ihren zweiten Frühling. Doch mit der Large-Language-Modell (LLM)-Technologie gewinnt die Frage von damals erneut an Aktualität.
Experten bemängeln bereits heute, dass beispielsweise bei Banken und Versicherungen, etwa 50% der Website Besucher keine Lösung für ihre Fragestellung finden. Und irgendwie ist diese Orientierungslosigkeit auch nachvollziehbar. Wer auf seiner Website oder App alle Informationen bereitstellt, die notwendig wären, um alle denkbaren Anfragen beantworten zu können, würde wohl (fast) alle Kunden und Interessenten verschrecken.
Wie uns grosse Sprachmodelle helfen, Komplexität zu reduzieren
Genau hier setzen LLM an. Sie sind in der Lage aus mehreren komplexen Quellen eine Schlussfolgerung zu ziehen und ihre Erkenntnis in verständlicher Weise auszudrücken. Ob das Ergebnis korrekt ist oder nur plausibel klingt aber fehlerhaft ist, kann nicht sichergestellt werden. Doch diese Herausforderung ist nicht neu, sondern altbekannt. So steht das "Kleingedruckte" exemplarisch für dieses gesellschaftliche Problem. Laienverständliche und zugleich rechtssichere Verträge erweisen sich als Utopie. Mit LLMs verschieben sich nun die "Misinterpretationsrisiken" vom Kunden zum Chatbot. Hieraus entstehen neue Haftungsfragen, die durch den Gesetzgeber erst noch geklärt werden müssen.
Webseiten, Apps und der Kundenservice werden sich verändern
Wenn Konsumenten durch intelligente Chatbots von der Informationsrecherche entlastet werden, nutzen sie diese auch. Wenn im Rahmen des Chats, Kunde und Bot gemeinsam zur Erkenntnis gelangen, dass die noch offenen Details mit einem Mitarbeitenden geklärt werden sollten, ist der Chat-Kanal natürlich erste Wahl.
Wenn allerdings Chatbots mit einer simplen Text- oder Spracheingabe mehr Convenience bieten als aufwändig aufbereitete UIs auf Webseiten und Apps, werden die Bots auch für deren Gestaltung stilprägend sein. Womöglich sehen wir in einigen Jahren nur noch blinkende Cursor und Mikrofon-Symbole auf den Bildschirmen. Die UX-Designer, werden sich etwas einfallen lassen.
Es geht los! Aber in welche Richtung?
Wir erleben aktuell einen hochdynamischen technischen Fortschritt. Unternehmen aus allen Branchen müssen ihren Weg finden, um den Anschluss nicht zu verpassen und zugleich sorgsam mit ihren knappen Ressourcen umgehen. Anbieter sind daher gezwungen Risiken einzugehen. Momentan nicht zu handeln und abzuwarten ist dabei wahrscheinlich das grösste Risiko von allen.
Vor diesem Hintergrund bieten sich Experimente, die klar als solche erkennbar sind, als mögliche Handlungsoption an. Mit ihnen können sowohl auf Kunden- wie auch auf Anbieterseite Erfahrungen aufgebaut werden, ohne zu hohe Erwartungen zu schüren. Gleichzeitig lernen die Technik und die IT-Verantwortlichen aus falsch generierten Antworten die richtigen Schlüsse zu ziehen und ChatGPT-Anwendungen laufend zu optimierten und kundenfreundlicher zu gestalten. Eine Win-Win-Situation für beide Seiten.