„ChatGPT ist vorsichtiger geworden”
Benedikt Reuse | 18. März 2024
Von euphorischer Goldgräberstimmung bis zu apokalyptischen Visionen – enorm war die Bandbreite an Reaktionen, als der generative Bot ChatGPT auf den Massenmarkt durchbrach. Viele wähnten sich Ende 2022 auf der Schwelle zu einem neuen digitalen Zeitalter. Auch im akademische Bildungssektor wirbelte die künstliche Intelligenz viel Staub auf. Wie sieht es jetzt über ein Jahr später aus? Haben sich die ersten Prognosen erfüllt? „Die kurzeitigen Folgen haben wir überschätzt, die langfristigen eher noch unterschätzt“, teilt Andreas Giesbert, Fachmediendidaktiker der Fakultät für Kultur- und Sozialwissenschaften, ein landläufiges Urteil.
Mit seinem technischen Wissen bringt er sich an der FernUniversität in verschiedenen Arbeitskreisen ein. „Was wir derzeit in der Bildungslandschaft erleben, ist jedenfalls eine Phase der Implementierung von künstlicher Intelligenz.“ Im Vordergrund steht damit der praktische Nutzen für Forschung und Lehre. Entscheidungen sind fällig. Inwieweit sollte man kommerziellen Anbietern vertrauen? Welche Sonderlösungen brauchen staatliche Hochschulen in Deutschland – zum Beispiel mit Blick auf Datenschutz oder ethische Standards? „Wir können die etablierten Modelle jetzt beispielsweise in der Breite an die Unis holen oder auf maßgeschneiderte Eigenentwicklungen setzen“, beschreibt Giesbert verschiedene Szenarien.
Neuer Status Quo
Dass an der künstlichen Intelligenz kein Vorbeikommen ist, zweifelt kaum mehr jemand an. In den letzten Monaten hat sich das technische Potenzial konstant fortentwickelt. Nicht nur rechenhungrige Anwendungen wie im Bereich generativer Videobearbeitung laufen zu neuen Höhen auf. Veränderungen zeigen sich vor allem im Detail, findet Giesbert: „Zum Beispiel ist ChatGPT nicht nur bei bestimmten Fragen zuverlässiger, sondern auch vorsichtiger geworden.“ So antworte der Bot auf fachliche Fragen inzwischen seltener mit irgendwelchen erfundenen Literaturhinweisen. „Auch die Kompetenz der Nutzenden hat sich mittlerweile deutlich erhöht.“ Zudem etabliere sich KI zusehends im Arbeitsalltag – oftmals in Form von integrierten Tools, die dolmetschen, übertragen, optimieren oder korrigieren. „In Microsoft-Office-Anwendungen wird gerade der Assistent ‚Copilot‘ ausgerollt. Google Docs oder Grammarly haben bereits auf dem US-Markt generative KI integriert.“ Das mache es zusätzlich schwer, die KI-Nutzung einfach pauschal zu tabuisieren. „Ich kann ja nicht sagen: Ihr dürft MS Word nutzen, aber bitte keine Rechtschreibkorrektur oder Copilot.“
Sokratischer Dialog mit der Maschine? Als Fachmediendidaktiker lotet Andreas Giesbert aus, welche Möglichkeiten es zum „Gedankenaustausch“ mit generativen KIs gibt.
FernUni auf ihrem Weg
„Die Unis versuchen gerade wissenschaftlich tragfähige und transparente Umgangsformen mit KI zu finden“, überblickt der Experte. Auch die FernUniversität ist auf dem Weg. „Wir sind in Hagen gut dabei und in ein, zwei Aspekten vielleicht sogar weiter vorne als manche andere, weil wir flexibler auf die Entwicklung reagieren können.“ So hat die FernUni etwa einen Leitfaden und offizielle Handlungsempfehlungen zum Umgang mit ChatGPT in Studium und Lehre veröffentlicht. Zudem gibt es fortlaufende TechTalks vom Zentrum für Lernen und Innovation, Workshops für Studierende, interne Fortbildung und viele weitere Angebote.
„Wir haben uns an der FernUni von Anfang an sehr gut vernetzt – und nicht isoliert gearbeitet“, zeigt sich Giesbert zufrieden. Schnell bündelten die Hochschulangehörigen ihr Knowhow in verschiedenen informellen Gruppen, die sich etwa zur Arbeitsgemeinschaft Generative Intelligence Network (GIN) verfestigten. Auch das Zentrum für Lernen und Innovation (ZLI) der FernUniversität beteiligt sich maßgeblich am Prozess. Wichtige Schritte lassen sich so gemeinsam planen: „Als nächstes arbeiten wir als Institution daran, einen eigenen datenschutzkonformen Zugang zu einem großen Sprachmodell zu ermöglichen. Darüber hinaus gibt es die Überlegung, die bestehenden Lehrinhalte KI-nutzbar zu machen.“ Das würde irgendwann beispielsweise ermöglichen, dynamisch mit den FernUni-Studienbriefen zu chatten – im Sinne eines eigenen FernUniGPT. „Das wäre ökologisch und datenschutzrechtlich zu bevorzugen, denn die anfallenden Daten würden dann in Hagen bleiben und nicht quer durch die Welt geschickt“, betont Giesbert.
„Es gibt nicht nur ChatGPT“
Ethische Aspekte sind es auch, wegen derer er von der schnellen kommerziellen Lösung abrät, allen Fernstudierenden einfach einen eigenen ChatGPT-Account zu kaufen. „Hinter ChatGPT stecken kapitalistische Gewinninteressen. Damit geht einher, dass wir keine Transparenz über das Modell haben.“ Was mit den Daten der Studierenden passiert, wäre so kaum kontrollierbar. Deshalb findet es Giesbert richtig, mit offenen Sprachmodellen zu experimentieren – so wie derzeit etwa eine Gruppe um Prof. Dr. Torsten Zesch, Forschungsprofessur für Computerlinguistik bei CATALPA (Center of Advanced Technology for Assisted Learning and Predictive Analytics). „Es gibt nicht nur ChatGPT! Da müssen wir nicht mitspielen. Vielleicht passen andere Modelle sogar besser zu uns.“
„Bei ChatGPT ist der Output unberechenbar. Wenn ich KI live im Seminar nutze, kann es also sein, dass die Beispiele nichts taugen.“
„Interesse ist da!“
Auch abseits von bildungswissenschaftlichen Settings setzen sich viele Forschende auf dem Campus mit KI auseinander – beforschen ihre kulturelle Auswirkung oder die Technik selbst. Wie färbt das breite Interesse konkret auf die Fernlehre ab? „Das Interesse an KI-gestützter Lehre ist auf jeden Fall da“, teilt Giesbert seine Erfahrung als mediendidaktischer Berater. Naturgemäß geht es an seiner kultur- und sozialwissenschaftlichen Fakultät dabei vor allem um Texte. In einigen Seminaren spielt KI etwa als Stichwort- und Beispielgeberin eine Rolle. Dabei helfen interessierte Studierende oft selbst mit, die neue Technik in die Lehrveranstaltungen einzubringen. Allerdings rät Giesbert allen Usern dringend dazu, Anwendungsbeispiele sorgfältig zu kuratieren, Testläufe durchzuführen. „Bei nondeterministischen Systemen wie ChatGPT, ist der Output unberechenbar. Wenn ich KI live im Seminar nutze, kann es also sein, dass die Beispiele nichts taugen.“ Bei aller Faszinationen sollten Lehrende wie Studierende stets reflektieren: Die Modelle spielen nach ihren eigenen Regeln, ihre genauen Grenzen und Potenziale sind selbst den Entwickler:innen nicht bewusst.
Erleichterung bei vielen Arbeitsschritten
Künstliche Intelligenz ist ein vielschichtiges Phänomen mit vielen Ambivalenzen und Graubereichen. Zumindest auf formaler Ebene vereinfacht sie Prozesse eindeutig: Hochwertige Untertitel und Transkripte lassen sich automatisch generieren, etwa mit Whisper von OpenAI, was der Barrierefreiheit zugutekommt. „So lässt sich selbst noch ein anderthalb Stunden Video mit vernünftigem Ressourcen-Aufwand untertiteln.“ Auch die passende Visualisierung fällt nun leichter – mit den richtigen Prompts entsteht stilistisch einheitliches Bildmaterial. „Zum Beispiel kann man Präsentationen oder Lehrvideos super mit KI-Bildern von Adobe Firefly illustrieren“, ermuntert Andreas Giesbert alle FernUni-Beschäftigten, die lizensierte und rechtlich saubere Software zu nutzen. Auch Forschende könnten sich die KI noch stärker zunutze machen: „Es gibt verschiedene Spezialtools, etwa zur Literaturrecherche, die KI-gestützt Bibliothekssätze oder die eigene PDF-Datenbank durchforsten.“
Bundesweites Netzwerk
In diesem Zusammenhang hebt Giesbert auch die Mitwirkung der FernUniversität am KI-Campus 2.0 hervor, dessen NRW-Hub federführend von einem Team um Prof. Dr. Claudia de Witt (Lehrgebiet Bildungstheorie und Medienpädagogik) koordiniert wird. Hier sorgen offene Think-Tanks zu rechtlichen, didaktischen und ethischen Fragen, aber auch zur Vermittlung von KI-Kompetenzen im Studium für regen Austausch. Der ist auch 2024 unerlässlich, ja, vielleicht mit Blick auf konkrete Anwendungsfälle noch wichtiger als zuvor: „Natürlich kann man sich auch bei LinkedIn einen groben Überblick verschaffen“, so Giesbert. „Der bundesweite Austausch mit Expert:innen ist aber spätestens dann nützlich, wenn es um Detailfragen geht – etwa darum, was nun genau in einer Einverständniserklärung drinstehen muss, damit sie ethisch und rechtlich tragfähig ist.“
Alle Illustrationen auf den Themenseiten sind vom KI-Bildgenerator DALL-E 2 erstellt worden.