„Das Programm trainiert auch uns“

Benedikt Reuse | 14. Februar 2023

Höhlenmalerei, Buchdruck… ChatGPT? Erleben wir gerade den Start einer neuen medialen Revolution? Dazu legt sich Prof. Dr. Michael Niehaus nicht fest. Doch auf jeden Fall nimmt der Medienwissenschaftler eine allgemeine Pionierstimmung wahr: „Viele Leute haben jetzt den Eindruck, dass sei ein Sprung, weil ChatGPT zum Massenphänomen geworden ist.“

Dabei sei das Nutzungsverhalten vieler Menschen bislang sehr von Experimentierfreude geprägt. „Die meisten Leute betrachten ChatGPT noch als Spielzeug. Als einen Dummy-Gesprächspartner zum Testen, der beliebig geduldig ist und sich für falsche Antworten entschuldigt.“

Medienwissenschaftler Michael Niehaus untersucht in seinem Lehrgebiet Neuere deutsche Literaturwissenschaft und Medienästhetik die Fähigkeiten von ChatGPT.

Denken ist nicht gleich Denken

Der FernUni-Professor lotet in seinem Lehrgebiet aus, was das Programm draufhat, stellt ihm Fragen über Kafka und literaturwissenschaftliche Klausuraufgaben. Zwar beeindrucken ihn einige der Ergebnisse. Dass die Künstliche Intelligenz dem Menschen fortan das Denken abnimmt, bezweifelt er jedoch. „Das, was das Programm herstellt, ist eine Kompilation aus Sachen, die schon da sind. Das ist aber noch kein Denken“, ist er einerseits überzeugt. „Auf der anderen Seite ist es aber sehr wichtig, sich klarzumachen, wie viel wir als Menschen machen, das auch kein richtiges Denken ist: Wir kompilieren eben auch Inhalte, bringen sie in eine bestimmte Reihenfolge. Vieles, was wir uns als gedankliche Leistung zugutehalten, kann leicht von Algorithmen übernommen werden.“

Trotzdem sieht Niehaus in ChatGPT eher einen Helfer und intellektuellen Sparringspartner: „Solche Bots zu bedienen, ist auch eine Kompetenz, die wir erwerben müssen. Es ist ja nicht nur so, dass wir die KI trainieren. Das Programm trainiert auch uns. Und zwar darauf, genaue Anweisungen zu geben – nicht in Form von Codes, sondern gedanklich.“ Eine KI mit den richtigen Eingangsbefehlen (Prompts) zum gewünschten Ergebnis zu führen, sei eben keine banale Aufgabe. Egal ob es sich um einen Text- oder Bildgenerator handelt: Die Maschine braucht präzise Kommandos.

Bot-Kalibrierung als neue Medienkompetenz

Anspruchsvoll werde es vor allem dann, wenn der Grad der Komplexität steige: „Für den Eingangsbefehl brauchen wir gewissermaßen eine Analyse unseres eigenen Wollens. Es reicht ja nicht zu sagen: Schreibe mir eine Hausarbeit über Ingeborg Bachmanns Roman ‚Malina‘. Dann schreibt ChatGPT irgendeinen Mist. Vielleicht hört sich der Mist gut an – trotzdem glaube ich, dass ich sofort merken würde, wenn man mir eine Hausarbeit überreicht, die auf diese Weise geschrieben worden ist. Bringt man den Chatbot hingegen dazu, eine Hausarbeit zu schreiben, bei der ich seine Beteiligung nicht merke, dann müsste man sich dafür so genau mit Inhalt und Struktur auseinandersetzen, dass darin schon wieder eine eigene Leistung läge.“

Die Kunst der Abweichung

Was hingegen simplere Prüfungsformen mit einfachem Frage-Antwort-Schema angeht, ist sich Niehaus sicher: „Wir müssen unsere Klausuraufgaben nun anders stellen, damit das allgemeine Geschwätz nicht mehr nötig ist – das kann ein Computer ja jetzt offenbar automatisch herstellen.“ Für ungeschlagen hält er den Menschen nämlich gerade dann, wenn es ums Eigenartige und Besondere geht. In vielen Textgattungen erwarten wir Stolpersteine geradezu. Anderenfalls würden sie völlig austauschbar und irrelevant wirken. „Man kann ChatGPT sicher gut für Texte verwenden, zu denen man keine emotionale Beziehung hat. Für viele Texte gilt aber das Gebot der individuellen Abweichung vom Wahrscheinlichen. Zum Beispiel bei einem Heiratsantrag oder Trauerbrief: Da muss immer eine Abweichung drin sein, damit es überhaupt persönlich wirkt. Die Art der Abweichung muss außerdem zur Person passen, um die es geht – und die kennt der Bot ja gar nicht.“ Das Prinzip gelte wahrscheinlich auch für die Kunst: „Hat man noch ein libidinöses Verhältnis zu Texten, die man nicht selbst geschrieben hat? Wie fühlt man sich, wenn ein Roman nur mithilfe eines Chatbots entstanden ist?“, fragt Niehaus mit literaturwissenschaftlicher Neugierde.

„Ich bin jedenfalls gespannt auf die erste Hausarbeit, bei der ich skeptisch werde.“

Kein „Refugium für das Echte“

„Sich defensiv zu verhalten, finde ich verkehrt“, wägt der Forscher zudem ab. Entsprechend überzeugen ihn auch Forderungen wie die nach einem digitalen Wasserzeichen, das prozedurale von menschlichen Texten abgrenzt, nicht. „Wir können uns nicht gegen die Entwicklung stemmen, indem wir eine Art Refugium für das Echte aufmachen. Das ist weder konstruktiv noch vielversprechend.“ Wichtig findet er, dass die Gesellschaft kritisch bleibt – nicht im Sinne von Ablehnung, sondern einem vorsichtigen Urteil über die KI-Erzeugnisse. „Ich bin jedenfalls gespannt auf die erste Hausarbeit, bei der ich skeptisch werde“, schmunzelt Niehaus, betont aber auch, welche Chance und integrative Kraft er in der neuen Technik sieht: „Es gibt Leute, die können sich im Deutschen sprachlich einfach nicht so gut ausdrücken. Aus verschiedenen Gründen. Das kann zum Beispiel mit der Sozialisation zusammenhängen oder mit einem Migrationshintergrund. Wenn sie ChatGPT gut benutzen können, ihre Hausarbeit gut konzipiert ist… dann denke ich mir: okay!“

Mehr zum Thema

Alle Illustrationen auf den Themenseiten sind vom KI-Bildgenerator DALL-E 2 erstellt worden.