So verändert ChatGPT die Bildungs- und Berufswelt
ChatGPT stellt Schulen und Hochschulen auf die Probe. Für Professor Martin Volk, Leiter des Instituts für Computerlinguistik an der Universität Zürich, steht fest: Der Chatbot von OpenAI gehört in den Unterricht. Der Forscher spricht über die Hintergründe der Technologie, ihre Auswirkungen auf das Bildungswesen und darüber, wie sie die Berufsprofile verändert - nicht nur in der Informatik.
ChatGPT hat mit seinen Fähigkeiten viele Menschen überrascht. Sie ebenfalls?
Martin Volk: Nur wenig. Wir verfolgen die GPT-Technologie bereits seit 2020 – damals stellte die Firma OpenAI das Sprachmodell GPT-3 im Rahmen eines wissenschaftlichen Artikels vor. Und seit GPT-3 zu Testzwecken verfügbar war, haben wir das System wiederholt ausprobiert. Wir wussten deshalb um die Möglichkeiten. Als ChatGPT nun im vergangenen November freigegeben wurde, waren wir vor allem von den verbesserten Dialogfähigkeiten beeindruckt. ChatGPT erkennt die Absicht hinter einer Frage, also die Intention der Benutzerin oder des Benutzers, deutlich besser als GPT-3.
Wie hat OpenAI diesen Entwicklungssprung geschafft? Oder anders gefragt: Was ist das Geheimnis von ChatGPT?
Das wissen wir nicht genau. Dazu gibt es nur ein paar Statements auf der Website von OpenAI, aber noch keine Publikationen, die das im Detail beschreiben. Es scheint so, als hätten sich die Entwickler speziell Mühe gegeben, die bereits vorhandene GPT-Basis auf Dialoge zu trainieren. Zu diesem Zweck kamen vermutlich Daten von anderen Chatbots zum Einsatz. Auf Basis dieser Trainingsdaten brachte man dem System allerdings auch bei, sich gewissermassen kooperativ zu verhalten – also Antworten zu geben, die im Rahmen des Erwartbaren sind. Wenn ich beispielsweise nach den grössten Städten Europas frage, wünsche ich mir in der Regel keine Liste mit 250 Städten, sondern nur die Top 10. Das muss man dem System erst mal beibringen. Und das hat OpenAI offenbar gut gemacht.
Die Firma hat ihrem Chatbot also beigebracht, möglichst allgemein erwünschten Output zu generieren.
Genau. Ich glaube auch, dass OpenAI die typischen Fragen, die Menschen immer wieder an KI-Systeme stellen, im Detail behandelt und in allen möglichen Variationen abgefangen hat. Also Fragen wie: "Was ist der Sinn des Lebens?" Oder: "Hast du ein Bewusstsein?" Wenn nun ein Chatbot auf solche Fragen einigermassen vernünftig antworten kann, heisst das nur, dass die Entwickler schlau genug waren, solche Fragen zu antizipieren.
ChatGPT versetzt viele Lehrpersonen in Aufregung. Vermutlich hat der Chatbot auch schon an Seminar- und Abschlussarbeiten an Schweizer Hochschulen mitgewirkt. Bereitet das Ihnen Sorgen?
Als Werkzeug kann ChatGPT das Schreiben von Seminar- oder Abschlussarbeiten unterstützen und beschleunigen. Das ist nicht grundsätzlich schlecht. Aber es ist schon so, dass die Autorenschaft einer studentischen Arbeit, aber auch einer wissenschaftlichen Publikation verschwimmt, wenn ein solch mächtiges System zur Anwendung kommt. Darauf müssen wir mit neuen Prüfungsformen reagieren, oder auch die guten alten mündlichen Prüfungen und schriftlichen Prüfungen auf Papier wieder einführen. Ausserdem kann ich mir vorstellen, dass wir die Studierenden dazu verpflichten werden, transparent zu machen, welche Rolle ChatGPT bei der Erstellung einer Arbeit gespielt hat.
Wie sollen Schulen und Universitäten Ihrer Ansicht nach mit dieser neuen Generation der generativen KI umgehen?
Ich bin sehr dafür, dass wir solche Werkzeuge aktiv in die Lehre und Forschung einbeziehen. Unsere Studierenden müssen lernen, solche Systeme nutzbringend einzusetzen und den Output kritisch zu hinterfragen, zu adaptieren und für ihre Zwecke zielgenau einzusetzen. Die Fähigkeit, solche Text-Manipulationssysteme urteilssicher zu nutzen, wird ein wichtiger Bestandteil der digitalen Kompetenzen.
Es gibt bereits einige Tools, die KI-generierte Texte entlarven sollen. Was halten Sie von diesem Ansatz?
Ich habe diese Entlarvungs-Systeme noch nicht getestet. Aber ich bin skeptisch und bezweifle, dass sie zuverlässig funktionieren werden. Denn schliesslich sind die von ChatGPT erzeugten Texte sehr ähnlich wie gute, von Menschen gemachte Texte. Manchmal wirken sie sogar übermenschlich. Klar ist, dass es viel schwieriger ist, ChatGPT-Texte nachzuweisen als "echte" Plagiate, also kopierte Sätze oder Absätze aus bereits publizierten Arbeiten.
Was sagt die Computerlinguistik zum verbreiteten Einsatz von Sprachrobotern?
Intelligente Chatbots und Text-Manipulationssysteme sind ein wichtiges Forschungsgebiet unseres Fachs. Wir beschäftigen uns seit jeher mit der Technologie und dem Funktionsumfang, aber immer auch mit den gesellschaftlichen Auswirkungen. So diskutieren wir schon seit einiger Zeit, welche Auswirkungen die heute sehr guten maschinellen Übersetzungssysteme wie zum Beispiel DeepL oder Google Translate auf das Lernen von Fremdsprachen und damit auf die Sprachkompetenzen der nächsten Generation haben werden. Wir weisen immer wieder auf die kulturellen und kognitiven Vorteile hin, die das Sprachenlernen hat. Aber es ist klar, dass das Lernen einer zweiten oder dritten Fremdsprache zunehmend in Frage steht. Die Übersetzungs-Studiengänge verzeichnen bereits eine sinkende Nachfrage.
Wie behandeln Sie das Thema ChatGPT mit Ihren Studierenden?
Abgesehen von der Technologie-Diskussion zu ChatGPT müssen wir mit unseren Studierenden auch die Werkzeug-Diskussion führen. Wo hilft das System beim Recherchieren, beim Schreiben oder beim Programmieren? Wo kann man das System zur Beantwortung von Forschungsfragen beteiligen? Wo gibt es Fallstricke? Wie müssen wir die Hilfe von ChatGPT dokumentieren und ausweisen? Da sind viele Fragen offen.
Wie nehmen Sie den Grundtenor unter den Dozierenden wahr? Sieht man den Einsatz von Chatbots an den Hochschulen als Bedrohung oder eher als Bereicherung?
Einige wenige Dozierende sehen KI-Systeme als Bedrohung; für viele war ChatGPT ein unerwarteter und irritierender Qualitätssprung. Wie ChatGPT eine Bereicherung in der Lehre und Forschung sein kann, ist für die meisten noch unklar. Klar ist jedoch, dass diese Technologie nun angekommen und bekannt ist, und dass sie ein ernstzunehmender Faktor an den Hochschulen, in der Bildung und in vielen anderen Bereichen unserer digitalen Gesellschaft bleiben wird.
Wie können Dienste wie ChatGPT das Lehren und Lernen an Universitäten und Schulen verbessern?
Dozierende, Lehrerinnen und Lehrer sollten ChatGPT – und ähnliche Systeme, die es bald geben wird – in den Unterricht einbeziehen. Schülerinnen und Schüler sowie Studierende sind fasziniert von den Möglichkeiten dieser neuen Technologie. Das kann eine grosse Motivation für Lernende sein. Der Einsatz sollte aber immer damit verknüpft werden, die Ausgaben des Systems zu hinterfragen und für die eigenen Bedürfnisse anzupassen. Die kritische Beurteilung von automatisch generierten Texten, ebenso wie das effiziente Korrigieren und Anpassen, wird eine wichtige Kompetenz, wichtiger als das eigene Schreiben.
Schon heute gibt es einige Alternativen zu ChatGPT – und es werden vermutlich noch viele hinzukommen. Das wirft einige Fragen auf, beispielsweise zur Möglichkeit von Open-Source-Implementierungen, zum Stromverbrauch solcher Dienste und ihrem Missbrauchspotenzial. Wo besteht aus Ihrer Sicht der grösste Klärungsbedarf?
Dass Alternativen hinzukommen werden, liegt auf der Hand. Das Potenzial dieser Technologie ist riesig. Und die Möglichkeiten, damit Geld zu verdienen, sind offensichtlich. Open-Source-Implementierungen sind sehr wünschenswert, damit wir als Forschungs-Gemeinschaft genauer untersuchen können, wie die Systeme funktionieren und bei Missbrauch eingreifen können. Der Stromverbrauch beim Training solcher KI-Modelle ist ein riesiges Problem. Es ist deshalb sehr wichtig, dass die Forschung an schlankeren Trainingsverfahren arbeitet. Wir können es uns als Gesellschaft, die der Nachhaltigkeit verpflichtet ist, nicht leisten, soviel Energie für die Rechenleistung zu vergeuden. Der grösste Klärungsbedarf besteht aber in der Untersuchung von möglichem Missbrauch und nicht beabsichtigten, unerwünschten Folgen der Nutzung solcher Dienste. Ich denke beispielsweise an die Verbreitung von Falsch-Informationen, von Hass-Rede und an die Reproduktion von Vorurteilen sowie überholten gesellschaftlichen Normen – zum Beispiel bezüglich Religion, Geschlecht oder Ethnizität beziehungsweise "Rasse". Ich fand es bemerkenswert, dass die GPT-Publikation von 2020 den Grenzen und Gefahren des Systems einen ausführlichen Abschnitt widmete.
Was genau finden Sie daran bemerkenswert?
Bis anhin behandelten die meisten Publikationen auf diesem Forschungsgebiet ethische Fragen, wenn überhaupt, nur am Rande und in wenigen Sätzen. Im Paper von 2020 widmete OpenAI solchen Fragen hingegen ein fünf Seiten langes Kapitel inklusive ausführlichen, selbst durchgeführten Untersuchungen. Das war aussergewöhnlich. Und davon kann man sich durchaus inspirieren lassen. Den Studierenden, mit denen ich das Paper diskutierte, riet ich: Wenn ihr zwischendurch mal technische Details überspringen wollt, ist das in Ordnung. Doch dieses Kapitel müsst ihr lesen. Denn es ist wichtig zu wissen, wo die Grenzen liegen.
Die Fortschritte auf dem Gebiet des maschinellen Lernens haben demnach dazu geführt, dass ethische Aspekte in der Informatik an Bedeutung gewinnen.
Auf jeden Fall. Vor 20 Jahren, als wir in der Computerlinguistik beispielsweise an kleinen Information-Retrieval-Systemen oder Grammatik-Checkern arbeiteten, machte sich kaum jemand Gedanken über etwaige ethische Implikationen. Das mussten wir auch nicht, weil unsere Arbeit höchstens einen marginalen Einfluss auf gesellschaftliche Entwicklungen hatte. Heute ist jedoch klar, dass KI-Anwendungen grosse Auswirkungen auf die Gesellschaft haben. Das wiederum prägt die wissenschaftliche Auseinandersetzung mit der Thematik – und auch Unternehmen wie OpenAI oder Google sind sich dessen bewusst.
Im Top-Management von Google hat ChatGPT angeblich für Alarmstimmung gesorgt. Stellt der Chatbot für den Suchmaschinenkonzern eine ernsthafte Bedrohung dar?
Ja und nein. Die Google-Suche liefert schnell Verweise auf gute Wissensquellen. Wir kennen Google und können damit umgehen. Demgegenüber liefert ChatGPT Faktenwissen schön verpackt, aber nicht immer korrekt. Die Quelle der Information ist oft unklar. Da sehe ich bei ChatGPT einen deutlichen Nachbesserungsbedarf – bis auf Weiteres wird das System also Google nicht wirklich in den Schatten stellen. Allerdings sehe ich den grossen Vorteil von ChatGPT eher im Bereich Text-Erzeugung und Schreib- sowie Programmier-Unterstützung. Da hat Google aktuell nichts Gleichwertiges zu bieten.
Sie sprechen von Programmier-Unterstützung. Inwiefern könnte ChatGPT auch Personal in der Softwareentwicklung ersetzen?
Nur insofern, als solche Dienste dazu beitragen, dass man in der Softwareentwicklung effizienter arbeiten kann. Davon bin ich überzeugt. Es gibt zwar erst ganz wenige Studien dazu. Dementsprechend kann man potenzielle Effizienzsteigerungen auch noch nicht quantifizieren. Doch für mich liegt es auf der Hand, dass Systeme wie ChatGPT die Programmierer und Programmiererinnen von Routineaufgaben entlasten können. Aus der Perspektive eines Unternehmens kann das zweierlei bedeuten: Entweder brauche ich bei gleichbleibendem Auftragsvolumen weniger Mitarbeitende. Oder ich kann mit dem gleichen Personalbestand aufgrund der Effizienzsteigerung mehr Aufträge erledigen.
Wie könnten sich die Jobprofile in der Informatik an diese Entwicklung anpassen?
Im professionellen Selbstverständnis wird es zunehmend wichtiger, dass man die von ChatGPT erzeugten Inhalte kontrollieren, adaptieren und kontextualisieren kann. Das betrifft sowohl die Text- wie auch die Code-Erzeugung. In der Informatik muss man beispielsweise überprüfen, ob die generierte Codezeile die gewünschte Funktion erfüllt und ob sie in die bestehende Programmierumgebung hineinpasst. Ist dieser Vorschlag tatsächlich das, was ich brauche? Ist diese Lösung effizient? Kann man Teile davon automatisieren, indem man systematisch Tests fährt? Die Aufgabe von Programmiererinnen und Programmierern wird sich also verschieben: Die Softwareentwicklung „from scratch“ verliert an Bedeutung – umso wichtiger wird hingegen die Fähigkeit der kritischen Beurteilung von Code. Und wie gesagt: Das betrifft nicht nur die Informatik. Wir müssen alle lernen, kritischer zu lesen.
Auf welche Branchen und Lebensbereiche sehen Sie die grössten Veränderungen zukommen?
Für die Textgenerierung gibt es einige vielversprechende Anwendungsgebiete. Ich sehe zum Beispiel ein grosses Potenzial für Firmenberichte und Produkt-Dokumentationen. Aber auch im Marketing könnten Dienste wie ChatGPT im grossen Stil zum Einsatz kommen. Dasselbe gilt für den Journalismus respektive für jegliche Form der Erzeugung von Medieninhalten. Ich kann mir auch vorstellen, dass man künftig in der Literatur mit ChatGPT arbeiten wird – wie auch in der Rechtsetzung und Rechtsprechung. Ausserdem könnte ChatGPT auch das Leben von Menschen mit Behinderungen erleichtern und somit zur Accessibility im Web beitragen. Auch für Menschen mit Legasthenie könnten solche Anwendungen enorm hilfreich sein.
In der Wissenschaft stösst die KI-basierte Textgenerierung allerdings an Grenzen. Die Herausgeber der akademischen Zeitschriften "Nature" und "Science" haben kürzlich entschieden, dass man ChatGPT fortan nicht mehr als Autor oder Co-Autor aufführen darf – mit der Begründung, KI könne keine Verantwortung für den Inhalt übernehmen. Was halten Sie von diesem Argument?
Das halte ich für Augenwischerei. Wenn ich beispielsweise einen Artikel einreiche, in dem ich einzelne Absätze von ChatGPT generieren liess, dann übernehme natürlich ich die Verantwortung dafür. Wenn die Verlage nun verbieten, diesen Vorgang transparent zu machen, dann führt das nur zu Heimlichtuerei. Und das ist absolut kontraproduktiv. Ich fände es viel besser, wenn die Verlage klare Richtlinien zur Deklaration einführen würden. Dass man als Autor oder Autorin beispielsweise angeben müsste, wie hoch der ungefähre Anteil am Artikel ist, den ChatGPT mit erzeugt hat. Darüber hinaus wäre es für die Leserschaft viel interessanter, zu erfahren, ob ChatGPT nur für die Generierung des Abstracts oder des Literaturverzeichnisses zum Einsatz kam, oder ob ein intensiver Austausch zwischen der KI und dem Autorenteam stattgefunden hat. Doch in einem Punkt bin ich mit den Verlagen einverstanden. Selbstverständlich kann man sich nicht hinstellen und sagen: Das sind meine Ergebnisse und der Autor ist ChatGPT. Den Forschenden würde das allerdings ohnehin nichts bringen. Schliesslich werden wir danach beurteilt, wie viel wir publizieren– und nicht danach, wie viele Artikel wir von ChatGPT produzieren lassen.
Wie nehmen Sie die breite Diskussion über ChatGPT wahr?
Was mich in der breiten Diskussion irritiert, ist, dass viele Menschen ChatGPT hauptsächlich dazu verwenden, um Informationen abzufragen. Also um beispielsweise danach zu fragen, wie hoch der Eiffelturm ist. Für solche Fragen eignen sich Suchmaschinen wie Google wesentlich besser, weil man damit beurteilen kann, woher die Informationen kommen. Bei ChatGPT steht hingegen eine ganz andere Funktion im Vordergrund, nämlich die der Textmanipulation. Der Vorteil dieses Systems liegt darin, dass man aus wenigen Stichworten flüssige Texte erzeugen, lange Texte kürzen oder zusammenfassen kann. Der grosse Sprung nach vorne betrifft also nicht die Informationsvermittlung, sondern die Entwicklung vom Grammatik-Checker zum Schreibassistenten.
Welcher grosse Entwicklungssprung auf dem Gebiet der Machine-Learning-Anwendungen erwartet uns als nächstes?
Das ist schwer zu sagen. Ich glaube, dass der Einbezug von gesprochener Sprache, von Bildern und Videos die textbasierte KI ergänzen wird. Dadurch eröffnen sich abermals neue Anwendungen in der automatischen Generierung von personalisierter Sprache, von automatisch erzeugten Bildern und Beschreibungen, oder auch von automatisch erzeugten Filmen mit Dialogen und Untertiteln in vielen Sprachen.
Der eingangs erwähnte Artikel von OpenAI ist online frei abrufbar (PDF).
Zur Person:
Martin Volk ist Professor am Institut für Informatik und Leiter des Instituts für Computerlinguistik an der Universität Zürich. Sein Forschungsschwerpunkt sind multilinguale Systeme, insbesondere maschinelle Übersetzung. Martin Volk hat einen Master in Artificial Intelligence der University of Georgia (USA), einen Doktortitel in Informatik der Universität Koblenz-Landau (Deutschland) und hat sich in Computerlinguistik an der Universität Zürich habilitiert. Volk ist ausserdem Gründer und Verwaltungsratsmitglied von TextShuttle, ein Spin-off der Universität Zürich, das sich auf KI-basierte Übersetzungssoftware spezialisiert hat.