Editorial

"Bullshit" ist besser als "Butterland"*

Uhr
Joël Orizet, stellvertretender Chefredaktor. (Source: Netzmedien)
Joël Orizet, stellvertretender Chefredaktor. (Source: Netzmedien)

Es muss schon einiges passieren, bis Forscher auf die Idee kommen, eine wissenschaftliche Publikation mit einem Titel zu versehen, der nicht nur kurz und knackig ist, sondern auch einen Chatbot ordinär beleidigt. "ChatGPT is bullshit": So lautet die Überschrift eines ­Papers von Michael Townsen Hicks, James Humphries und Joe Slater von der philosophischen Fakultät der Universität Glasgow. Die in der Fachzeitschrift "Ethics and Information Technology" publizierte Studie sorgt für Aufregung – nicht nur, aber wohl auch deswegen, weil darin der Begriff "Bullshit" 161 Mal vorkommt.

Die Bezeichnung ist allerdings nicht despektierlich gemeint. Die Autoren beziehen sich auf den 2023 verstorbenen US-Philosophen Harry Frankfurt, der den Begriff in seinem Essay "On Bullshit" (1986) so definierte, dass er über die umgangssprachliche Verwendung hinausgeht. "Bullshit" bedeutet demnach nicht bloss Blödsinn, sondern eine Mogelpackung, die mehr Schaden anrichtet als Lügen. Denn wer Bullshit von sich gibt, tut nur so, als liege ihm etwas an der Wahrheit, schert sich jedoch tatsächlich keinen Deut darum und verfolgt stattdessen andere Ziele.

Genau dies sei bei grossen Sprachmodellen der Fall, argumentieren Hicks, Humphries und Slater in ihrer Publikation. Dienste wie Chat­GPT seien nicht darauf ausgelegt, Fakten als solche zu erkennen und Informationen zu vermitteln. Vielmehr sind sie darauf getrimmt, Inhalte von sich zu geben, die kaum noch von menschengemachten zu unterscheiden sind. Es geht ihnen also nicht um Faktizität, sondern um Überzeugungskraft. Folglich sei die Bezeichnung "Halluzination" im Kontext der künstlichen Intelligenz irreführend. Denn Halluzinationen sind Wahrnehmungsstörungen – und KI nimmt grundsätzlich nichts wahr, weil sie keine Sinnesorgane besitzt. Darüber hinaus ist die Rede von KI-Halluzinationen problematisch, wie die Forscher feststellen, denn sie trägt dazu bei, die Sprachmodelle zu vermenschlichen, dass man ihre Fähigkeiten überschätzt und die Verantwortung für fehlerhaften Output verwischt. Die Forscher ziehen daraus den Schluss, dass es zutreffender und auch wissenschaftlich angezeigt sei, von KI-Bullshit zu sprechen statt von entsprechenden Halluzinationen.

Nun könnte man vermuten, die Bullshit-Tirade sei eine Art Abwehr­reflex der Autoren. So etwas wie ein publizistischer Maschinensturm von drei Philosophen, die sich durch die Fortschritte auf dem Gebiet der generativen KI in ihrer beruflichen Existenz bedroht fühlen. Vielleicht befürchten sie ja, ähnlich wie etwa der Bestseller-Autor und Historiker Yuval Harari, dass künstliche Intelligenz die nächste grosse "Kränkung der Menschheit" darstellt – eine Formulierung, die der Psychoanalytiker Sigmund Freud geprägt hat. Demnach gab es bislang drei solcher Einschnitte im Selbstverständnis des Menschen. Zumindest die ersten beiden sind unbestreitbar: Mit der kopernikanischen Wende stellte sich heraus, dass die Erde und damit auch der Mensch nicht Mittelpunkt des Universums sind. Darwins Evolutionstheorie zeigte, dass der Mensch keine Krone der Schöpfung, sondern ein naher Verwandter der Affen ist. Und die dritte Kränkung, die Freud seiner eigenen Lehre über das Unbewusste zuschrieb, soll bewiesen haben, dass der Mensch noch "nicht einmal Herr ist im eigenen Hause", also nicht nur nach Vernunft und freiem Willen handelt, sondern vor allem seinen eigenen Trieben gehorcht.

Die vierte existenzielle Kränkung könnte nun darin bestehen, dass KI inzwischen auch die vermeintlich letzte exklusive Domäne der Menschheit erobert, weil die Technologie hinter ChatGPT & Co. in der Lage ist, Texte zu verfassen sowie Bilder, Videos und Musik zu produzieren – also Werke zu erzeugen, die bislang der menschlichen Kreativität vorbehalten waren. Diese These ist allerdings – mit Verlaub – Bullshit. Denn generative KI erzeugt nichts weiter als nach Wahrscheinlichkeiten berechnete Collagen von bereits Bestehendem. KI kann vieles, nur nicht originell sein, weil Algorithmen keine eigenständigen Gedanken entwickeln und zum Ausdruck bringen können – zumindest so lange nicht, bis so etwas wie eine "starke KI" oder eine allgemeine künstliche Intelligenz entsteht.

Der Verdacht, die drei Philosophen hätten mit dem Artikel nur eine Streitschrift gegen generative KI verfasst, läuft also ins Leere. An ihrem Argument ist etwas dran. Mag sein, dass die Bezeichnung "Bullshit" negativ konnotiert und sogar vulgär ist. Doch im Zweifel passt für diesen Sachverhalt ein prägnanter und abwertender Begriff besser als ein schlechtes Sprachbild. Denn KI-generierte Fehlinformationen sind ein Problem, das man nicht durch missglückte Metaphern schönreden sollte.


*"Butterland" ist ein Begriff aus der Seemannssprache, der eine optische Täuschung bezeichnet – ­insbesondere eine durch Nebel oder Dunst vorgetäuschte Erscheinung von Küsten oder Inseln am Horizont. In diesem Fall dient der Begriff als Sinnbild für Sinnestäuschungen respektive Halluzinationen.

Webcode
6QC69bLf