Viele Fragen und (noch) wenige Antworten

DH-Interessierte trafen sich zum Chatten – mit und ĂŒber KI

Etwa zwanzig Mitglieder des Arbeitskreises DH und des CDH folgten am 5. Mai 2023 dem Aufruf des SCDH, sich im Rahmen eines Workshops eingehender mit ChatGPT (in der Version 3.5) und anderen, auf großen Sprachmodellen basierenden KI-Systemen zu beschĂ€ftigen. Nach der BegrĂŒĂŸung durch Jan Horstmann, den Leiter des SCDH, sowie einer kurzen praktischen Übung folgten Erfahrungsberichte aus der Wissenschaft und der Softwareentwicklung. Die Referent*innen lenkten die Aufmerksamkeit auf einige Probleme bei der Nutzung des Chatbots:

Ludger Hiepel (2. v. links) referiert ĂŒber seine Chatgpt-Erfahrungen — Foto: M. Westermeier

So verwies der Theologe Ludger Hiepel darauf, dass das lizenzfreie Material, mit dem das System die Theologie „gelernt“ hat, schon allein aufgrund seines Alters durchsetzt ist mit Rassismen und Antisemitismen. Laut Hiepel reagieren die Filter des Systems bei entsprechenden Kommentaren zu Bibelstellen darauf. Wenn es z.B. um die Auseinandersetzung von Jesus mit den Juden geht – wie bei Joh 8,44 â€“ sorgt ChatGPT dafĂŒr, das Nutzende auf die Antisemitismusproblematik immerhin hingewiesen werden. Eine Frage bleibt aber offen: Wie teile ich der Maschine mit, dass sie etwas falsch einschĂ€tzt bzw. entsprechende „Ismen“ ĂŒbersieht? Streit und Widerspruch sind ChatGPTs Sache nicht; der „Dialog“ mit dem Chatbot bleibt, wie es scheint, folgenlos. Das System „erinnert“ sich nur nach erneutem Einloggen an mit dem User gefĂŒhrte GesprĂ€che. Auf die Frage „Wie lernst Du denn?“ erhielt Hiepel eine bemerkenswerte Antwort:

Ich bin eine kĂŒnstliche Intelligenz ohne GedĂ€chtnis.

ChatGPT 3.5

Der Literaturwissenschaftler und SCDH-Mitarbeiter Christian LĂŒck teilte die Beobachtung, dass ChatGPT die Prompts nicht immer richtig interpretiert. So endete die Frage nach der Ästhetik des Baumes in einem fĂŒr ein technisches System bemerkenswerten Geschmacksurteil. Es sei das

… ansehnlichste GewĂ€chs, das die Erde hervorgebracht hat.

ChatGPT 3.5
Christian LĂŒck (Mitte) ĂŒber Palmen in der „Stufenleiter der Natur“ — Foto: M. Westermeier

WĂ€hrend derartige Entgleisungen offenkundig sind – und damit einigermaßen ungefĂ€hrlich –, so wird es heikel, sobald der herbeigefĂŒhrte Kontext enger gefasst ist. LĂŒck forderte eine ideengeschichtliche Einordnung der Palme in der „great chain of being“ unter besonderer BerĂŒcksichtigung der frĂŒhen Biologen und Naturfoscher Carl von LinnĂ© und Charles Bonnet. Das Ergebnis war auf den ersten Blick durchaus lesenswert, die Semantik der Frage wird aufgenommen und mit denen aus vorhergehenden Fragen verknĂŒpft. Wer aber schon Bescheid weiß, dem offenbart sich ein fatales Manko: Bedeutungselemente aus den Prompts werden wiederholt und durch halluzinierte Fakten ergĂ€nzt.

Dieser „Gelehrsamkeitseffekt“, der im Dialog das System als hochkompetenten GesprĂ€chspartner erscheinen lĂ€sst, bestĂ€tigt auch Mirko Westermeier vom SCDH; er nennt das „Aha-Effekt“. FĂŒr Kundige aber verblasst dieser schnell, sobald die Fragen fokussierter werden und ChatGPT â€žunter Druck gerĂ€t“. Westermeier formuliert es kurz und salopp:

Beim Nachbohren kommt Quatsch!

Mirko Westermeier
Dennis Voltz (links) berichtet ĂŒber KI-Erfahrungen mit der „Vinnenberg-Chronik“ — Foto: M. Westermeier

Mit einer positiven Darstellung der Möglichkeiten von ChatGPT zur UnterstĂŒtzung des wissenschaftlichen Arbeitens schließt Dennis Voltz den Reigen der Erfahrungsberichte ab. Obgleich es keine wissenschaftlichen Modelle fĂŒr maschinelles Übersetzen frĂŒh- oder neuhochdeutscher Texte gibt, beeindruckt das System mit guten Ergebnissen bei AuszĂŒgen aus der „Vinnenberg-Chronik“. Die KI erkennt die Struktur des Textes und bietet entsprechend ĂŒberzeugende Formulierungen an. Darauf aufbauend kann der Chatbot brauchbare Summaries oder Schlagwortlisten erstellen, um bei der wissenschaftlichen Bearbeitung des Textes zu unterstĂŒtzen. Auch Aufgaben der Datenanalysen und Datenformatierung werden weitgehend anstandsfrei gelöst.

Als Helferlein fĂŒr die Wissenschaft haben ChatGPT und andere KI-Systeme offenkundig schon jetzt viel mehr zu bieten, als Forschende das bislang gewohnt waren. Aber was ist mit QualitĂ€ten, bei denen wir ĂŒblicherweise eine Persönlichkeit oder ein kritisches Bewusstsein voraussetzen? Dieser Frage widmete sich die anschließende Gruppenarbeitsphase.

Mit dem eher unterhaltsamen Versuch, ChatGPT einen gelungenen Witz zu entlocken, beschĂ€ftigte sich ein Teil der Teilnehmer*innen. Wann immer hierbei die Grenzen des guten Geschmacks und der Political Correctness ausgetestet wurden, verweigerte ChatGPT in der Regel höflich die Arbeit und entschuldigte sich fĂŒr den Mangel an Humor, der seiner Spezies eigen sei – zu recht, so die allgemeine EinschĂ€tzung:

„Warum hat der KĂŒhlschrank den Laptop geheiratet? Weil er hoffte, dass er dadurch ein paar coole Downloads bekommt!“

ChatGPT 3.5
Witze und moralische Dilemmata: eine Herausforderung fĂŒr ChatGPT — Foto: M. Westermeier

Unangreifbar gab sich ChatGPT auch bei der Konfrontation mit dem aus Ferdinand von Schirachs Terror ĂŒbernommenen Krisenszenario in der zweiten Gruppe: Soll ein entfĂŒhrtes Passagierflugzeug abgeschossen werden, um den sicheren Absturz in ein vollbesetztes Fußballstadion zu verhindern? Die moralisch relevanten Merkmale der Situation darzustellen, machte dem System keine Schwierigkeiten. Die theoretische Einordnung möglicher Lösungen des Konflikts auf der Basis etablierter Moraltheorien (Kantianismus, Konsequenzialismus etc.) blieb allerdings allgemein und wenig konkret. ChatGPT zeigte sich unterdessen als kompetenter Fabulierer und ließ sich nicht in die Falle einer eindeutigen Positionierung locken.

Nach einem kurzen Ausflug in die technische Welt hinter den nutzerfreundlichen OberflĂ€chen von ChatGPT & Co sorgte ein „World CafĂ©â€œ mit Tischen zu den Themenbereichen Ethik, Wissenschaft, Lehre und Theorie fĂŒr viele Diskussionen unter den Teilnehmenden.

World-CafĂ©-Tisch: Ethische Probleme mit ChatGPT — Foto: J. Horstmann

Der Umgang mit „Black Boxes“ im weiteren, nicht nur technisch verstandenen Sinne, stand im Zentrum der ethischen Fragestellungen. So wurde hingewiesen auf unsichtbare Voraussetzungen des erfolgreichen Betriebs der KI-Dienste: Wieviel Energie wird fĂŒr eine Anfrage benötigt? Und wie ist das mit den mehr als prekĂ€ren Arbeitsbedingungen derjenigen, welche die Inhalte im Internet aufbereiten mĂŒssen? Gewalt und Hass muss mittels menschlichen Bewusstseins gefiltert werden, ohne dass krankmachende Folgen fĂŒr die betreffenden Personen vermieden oder auch nur angemessen entschĂ€digt werden. Auch der politisch-ökonomische Blick auf die Anwendung dieser Technik machte den Teilnehmer*innen Sorge: Schon jetzt wird von OpenAI (der Betreiberfirma von ChatGPT) ein Angebot mit einer leistungsfĂ€higeren Technik hinter eine Bezahlschranke gesetzt. Damit besteht ein Wettbewerbsvorteil fĂŒr diejenigen, die es sich leisten können. Nicht zuletzt war der dominierende westlich-kulturelle Bias und ein möglicher struktureller Rassismus und Autoritarismus im System Thema. In der Diskussion herrschte allerdings weitgehend Einigkeit darin, dass es trotz der teils schwerwiegenden Probleme nicht zu einem Verbot der Anwendung von KI-Verfahren kommen dĂŒrfe. „Nutzen – aber kritisch nutzen!“, lautete der Tenor.

GrundsĂ€tzliche Fragen beim Theorie-Tisch: „Mit wem spreche ich da eigentlich?“ — Foto: J. Horstmann

Mit sehr grundsĂ€tzlichen Fragen beschĂ€ftigte sich der Theorie-Tisch: U.a. wurde ĂŒber das simulierte Bewusstsein des Dialogpartners ChatGPT diskutiert. Im Gebrauch Transformer-basierter KI-Sprachmodelle vermittelt die antwortgebende Technik den Anschein einer SubjektivitĂ€t. Einige meinten, dass dieser nicht nur nicht ignoriert werden kann, sondern hierbei zwangslĂ€ufig eine symbolische Ordnung (re)produziert wird. Mit wem spreche ich da eigentlich? Vielleicht mit einer Art Kollektivsubjekt einer sich im Internet verĂ€ußernden Gesellschaft? SelbstverstĂ€ndlich blieb diese Frage ebenso offen wie die nach adĂ€quaten Revisionen klassischer Begriffe wie „KreativitĂ€t“, „Denken“, „Intelligenz“ und nicht zuletzt von „Wissenschaft“ selbst.

Hier ĂŒberwog ein positiver Blick auf KI-Systeme: Der Wissenschafts-Tisch des World-CafĂ©s — Foto: J. Horstmann

Die ganz konkreten Auswirkungen der KI-Systeme auf die Wissenschaft waren Thema an einem eigenen Tisch. HĂ€ufig werden diese ĂŒberwiegend kritisch beĂ€ugt. In der entsprechenden Diskussionsrunde herrschte allerdings eher ein positiver Blick auf die neuen Möglichkeiten: z.B. sich schnell und einfach einen inhaltlichen Überblick ĂŒber Themenstellungen verschaffen zu können, eine effektive Starthilfe bei einer wissenschaftlichen Arbeit zu bekommen sowie unangenehme Fleißaufgaben loszuwerden. Teilnehmer*innen wĂŒnschten sich gar spezialisierte ChatGPTs fĂŒr besondere Aufgaben. Gleichwohl: Im Problem ungenannter Quellen sowie der kontinuierlichen Pflicht, Ergebnisse stets kritisch zu hinterfragen und zu reflektieren, sahen die Teilnehmenden enorme Herausforderungen.

Viel Skepsis, aber auch Hoffnung auf Erleichterung prĂ€gten die Diskussion am Lehre-Tisch — Foto: J. Horstmann

ErwartungsgemĂ€ĂŸ waren die Bewertungen der neuen Technik bei den Wissenschaftler*innen, die sich mit der Lehre beschĂ€ftigen, erst einmal weniger enthusiastisch. Zu vordringlich sind hier die Probleme; allen voran die Bewertung von PrĂŒfungsleistungen: Was sind die Eigenleistungen? Wie können sie identifiziert werden? Wie mĂŒssen sich die Bewertungskriterien verĂ€ndern? Wie ist die Rechtslage? Wie schaffe ich ein kritisches Bewusstsein bei den Studierenden? All dies konnte in der KĂŒrze der Zeit benannt, aber nicht mal im Ansatz geklĂ€rt werden. Jenseits aller Skepsis Ă€ußerten viele in der Runde auch positive Erwartungen. An das spezifische Lernniveau der Studierenden angepasste Übungs- bzw. PrĂŒfungsaufgaben mit der KI zu erstellen, wĂ€re beispielsweise eine große Hilfe. ChatGPT-UnterstĂŒtzung auch bei speziellen Aufgaben, wie dem Erzeugen von Beispieltexten fĂŒr den Fremdsprachenerwerb, ist bei den Lehrenden ebenfalls sehr willkommen. So wundert es nicht, dass die erste Reaktion seitens des Rektorats im Zusammenhang mit ChatGPT auf Kritik stieß. Ein komplettes Verbot der Nutzung von KI-Systemen in der Lehre erschien den meisten Teilnehmer*innen weder sinnvoll noch durchsetzbar.

Der Workshop neigte sich gen Mittag dem Ende zu und Jan Horstmann resĂŒmierte, dass das Aufkommen praxistauglicher KI-Systeme offenbar einen Prozess grĂ¶ĂŸerer VerĂ€nderungen im Wissenschaftsbetrieb wesentlich mit angestoßen habe. Der Workshop habe gezeigt: Viele Fragen und noch wenig Antworten stehen im Raum. Er warb eindringlich dafĂŒr, die geisteswissenschaftliche Perspektive mit diesen großen VerĂ€nderungen zu verbinden.

Kategorien: ,

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Captcha wird geladen…

Weitere BeitrÀge