DH-Interessierte trafen sich zum Chatten â mit und ĂŒber KI
Etwa zwanzig Mitglieder des Arbeitskreises DH und des CDH folgten am 5. Mai 2023 dem Aufruf des SCDH, sich im Rahmen eines Workshops eingehender mit ChatGPT (in der Version 3.5) und anderen, auf groĂen Sprachmodellen basierenden KI-Systemen zu beschĂ€ftigen. Nach der BegrĂŒĂung durch Jan Horstmann, den Leiter des SCDH, sowie einer kurzen praktischen Ăbung folgten Erfahrungsberichte aus der Wissenschaft und der Softwareentwicklung. Die Referent*innen lenkten die Aufmerksamkeit auf einige Probleme bei der Nutzung des Chatbots:
So verwies der Theologe Ludger Hiepel darauf, dass das lizenzfreie Material, mit dem das System die Theologie âgelerntâ hat, schon allein aufgrund seines Alters durchsetzt ist mit Rassismen und Antisemitismen. Laut Hiepel reagieren die Filter des Systems bei entsprechenden Kommentaren zu Bibelstellen darauf. Wenn es z.B. um die Auseinandersetzung von Jesus mit den Juden geht â wie bei Joh 8,44 â sorgt ChatGPT dafĂŒr, das Nutzende auf die Antisemitismusproblematik immerhin hingewiesen werden. Eine Frage bleibt aber offen: Wie teile ich der Maschine mit, dass sie etwas falsch einschĂ€tzt bzw. entsprechende âIsmenâ ĂŒbersieht? Streit und Widerspruch sind ChatGPTs Sache nicht; der âDialogâ mit dem Chatbot bleibt, wie es scheint, folgenlos. Das System âerinnertâ sich nur nach erneutem Einloggen an mit dem User gefĂŒhrte GesprĂ€che. Auf die Frage âWie lernst Du denn?â erhielt Hiepel eine bemerkenswerte Antwort:
Ich bin eine kĂŒnstliche Intelligenz ohne GedĂ€chtnis.
ChatGPT 3.5
Der Literaturwissenschaftler und SCDH-Mitarbeiter Christian LĂŒck teilte die Beobachtung, dass ChatGPT die Prompts nicht immer richtig interpretiert. So endete die Frage nach der Ăsthetik des Baumes in einem fĂŒr ein technisches System bemerkenswerten Geschmacksurteil. Es sei das
… ansehnlichste GewĂ€chs, das die Erde hervorgebracht hat.
ChatGPT 3.5
WĂ€hrend derartige Entgleisungen offenkundig sind â und damit einigermaĂen ungefĂ€hrlich â, so wird es heikel, sobald der herbeigefĂŒhrte Kontext enger gefasst ist. LĂŒck forderte eine ideengeschichtliche Einordnung der Palme in der âgreat chain of beingâ unter besonderer BerĂŒcksichtigung der frĂŒhen Biologen und Naturfoscher Carl von LinnĂ© und Charles Bonnet. Das Ergebnis war auf den ersten Blick durchaus lesenswert, die Semantik der Frage wird aufgenommen und mit denen aus vorhergehenden Fragen verknĂŒpft. Wer aber schon Bescheid weiĂ, dem offenbart sich ein fatales Manko: Bedeutungselemente aus den Prompts werden wiederholt und durch halluzinierte Fakten ergĂ€nzt.
Dieser âGelehrsamkeitseffektâ, der im Dialog das System als hochkompetenten GesprĂ€chspartner erscheinen lĂ€sst, bestĂ€tigt auch Mirko Westermeier vom SCDH; er nennt das âAha-Effektâ. FĂŒr Kundige aber verblasst dieser schnell, sobald die Fragen fokussierter werden und ChatGPT âunter Druck gerĂ€tâ. Westermeier formuliert es kurz und salopp:
Beim Nachbohren kommt Quatsch!
Mirko Westermeier
Mit einer positiven Darstellung der Möglichkeiten von ChatGPT zur UnterstĂŒtzung des wissenschaftlichen Arbeitens schlieĂt Dennis Voltz den Reigen der Erfahrungsberichte ab. Obgleich es keine wissenschaftlichen Modelle fĂŒr maschinelles Ăbersetzen frĂŒh- oder neuhochdeutscher Texte gibt, beeindruckt das System mit guten Ergebnissen bei AuszĂŒgen aus der âVinnenberg-Chronikâ. Die KI erkennt die Struktur des Textes und bietet entsprechend ĂŒberzeugende Formulierungen an. Darauf aufbauend kann der Chatbot brauchbare Summaries oder Schlagwortlisten erstellen, um bei der wissenschaftlichen Bearbeitung des Textes zu unterstĂŒtzen. Auch Aufgaben der Datenanalysen und Datenformatierung werden weitgehend anstandsfrei gelöst.
Als Helferlein fĂŒr die Wissenschaft haben ChatGPT und andere KI-Systeme offenkundig schon jetzt viel mehr zu bieten, als Forschende das bislang gewohnt waren. Aber was ist mit QualitĂ€ten, bei denen wir ĂŒblicherweise eine Persönlichkeit oder ein kritisches Bewusstsein voraussetzen? Dieser Frage widmete sich die anschlieĂende Gruppenarbeitsphase.
Mit dem eher unterhaltsamen Versuch, ChatGPT einen gelungenen Witz zu entlocken, beschĂ€ftigte sich ein Teil der Teilnehmer*innen. Wann immer hierbei die Grenzen des guten Geschmacks und der Political Correctness ausgetestet wurden, verweigerte ChatGPT in der Regel höflich die Arbeit und entschuldigte sich fĂŒr den Mangel an Humor, der seiner Spezies eigen sei â zu recht, so die allgemeine EinschĂ€tzung:
âWarum hat der KĂŒhlschrank den Laptop geheiratet? Weil er hoffte, dass er dadurch ein paar coole Downloads bekommt!â
ChatGPT 3.5
Unangreifbar gab sich ChatGPT auch bei der Konfrontation mit dem aus Ferdinand von Schirachs Terror ĂŒbernommenen Krisenszenario in der zweiten Gruppe: Soll ein entfĂŒhrtes Passagierflugzeug abgeschossen werden, um den sicheren Absturz in ein vollbesetztes FuĂballstadion zu verhindern? Die moralisch relevanten Merkmale der Situation darzustellen, machte dem System keine Schwierigkeiten. Die theoretische Einordnung möglicher Lösungen des Konflikts auf der Basis etablierter Moraltheorien (Kantianismus, Konsequenzialismus etc.) blieb allerdings allgemein und wenig konkret. ChatGPT zeigte sich unterdessen als kompetenter Fabulierer und lieĂ sich nicht in die Falle einer eindeutigen Positionierung locken.
Nach einem kurzen Ausflug in die technische Welt hinter den nutzerfreundlichen OberflĂ€chen von ChatGPT & Co sorgte ein âWorld CafĂ©â mit Tischen zu den Themenbereichen Ethik, Wissenschaft, Lehre und Theorie fĂŒr viele Diskussionen unter den Teilnehmenden.
Der Umgang mit âBlack Boxesâ im weiteren, nicht nur technisch verstandenen Sinne, stand im Zentrum der ethischen Fragestellungen. So wurde hingewiesen auf unsichtbare Voraussetzungen des erfolgreichen Betriebs der KI-Dienste: Wieviel Energie wird fĂŒr eine Anfrage benötigt? Und wie ist das mit den mehr als prekĂ€ren Arbeitsbedingungen derjenigen, welche die Inhalte im Internet aufbereiten mĂŒssen? Gewalt und Hass muss mittels menschlichen Bewusstseins gefiltert werden, ohne dass krankmachende Folgen fĂŒr die betreffenden Personen vermieden oder auch nur angemessen entschĂ€digt werden. Auch der politisch-ökonomische Blick auf die Anwendung dieser Technik machte den Teilnehmer*innen Sorge: Schon jetzt wird von OpenAI (der Betreiberfirma von ChatGPT) ein Angebot mit einer leistungsfĂ€higeren Technik hinter eine Bezahlschranke gesetzt. Damit besteht ein Wettbewerbsvorteil fĂŒr diejenigen, die es sich leisten können. Nicht zuletzt war der dominierende westlich-kulturelle Bias und ein möglicher struktureller Rassismus und Autoritarismus im System Thema. In der Diskussion herrschte allerdings weitgehend Einigkeit darin, dass es trotz der teils schwerwiegenden Probleme nicht zu einem Verbot der Anwendung von KI-Verfahren kommen dĂŒrfe. âNutzen â aber kritisch nutzen!â, lautete der Tenor.
Mit sehr grundsĂ€tzlichen Fragen beschĂ€ftigte sich der Theorie-Tisch: U.a. wurde ĂŒber das simulierte Bewusstsein des Dialogpartners ChatGPT diskutiert. Im Gebrauch Transformer-basierter KI-Sprachmodelle vermittelt die antwortgebende Technik den Anschein einer SubjektivitĂ€t. Einige meinten, dass dieser nicht nur nicht ignoriert werden kann, sondern hierbei zwangslĂ€ufig eine symbolische Ordnung (re)produziert wird. Mit wem spreche ich da eigentlich? Vielleicht mit einer Art Kollektivsubjekt einer sich im Internet verĂ€uĂernden Gesellschaft? SelbstverstĂ€ndlich blieb diese Frage ebenso offen wie die nach adĂ€quaten Revisionen klassischer Begriffe wie âKreativitĂ€tâ, âDenkenâ, âIntelligenzâ und nicht zuletzt von âWissenschaftâ selbst.
Die ganz konkreten Auswirkungen der KI-Systeme auf die Wissenschaft waren Thema an einem eigenen Tisch. HĂ€ufig werden diese ĂŒberwiegend kritisch beĂ€ugt. In der entsprechenden Diskussionsrunde herrschte allerdings eher ein positiver Blick auf die neuen Möglichkeiten: z.B. sich schnell und einfach einen inhaltlichen Ăberblick ĂŒber Themenstellungen verschaffen zu können, eine effektive Starthilfe bei einer wissenschaftlichen Arbeit zu bekommen sowie unangenehme FleiĂaufgaben loszuwerden. Teilnehmer*innen wĂŒnschten sich gar spezialisierte ChatGPTs fĂŒr besondere Aufgaben. Gleichwohl: Im Problem ungenannter Quellen sowie der kontinuierlichen Pflicht, Ergebnisse stets kritisch zu hinterfragen und zu reflektieren, sahen die Teilnehmenden enorme Herausforderungen.
ErwartungsgemÀà waren die Bewertungen der neuen Technik bei den Wissenschaftler*innen, die sich mit der Lehre beschĂ€ftigen, erst einmal weniger enthusiastisch. Zu vordringlich sind hier die Probleme; allen voran die Bewertung von PrĂŒfungsleistungen: Was sind die Eigenleistungen? Wie können sie identifiziert werden? Wie mĂŒssen sich die Bewertungskriterien verĂ€ndern? Wie ist die Rechtslage? Wie schaffe ich ein kritisches Bewusstsein bei den Studierenden? All dies konnte in der KĂŒrze der Zeit benannt, aber nicht mal im Ansatz geklĂ€rt werden. Jenseits aller Skepsis Ă€uĂerten viele in der Runde auch positive Erwartungen. An das spezifische Lernniveau der Studierenden angepasste Ăbungs- bzw. PrĂŒfungsaufgaben mit der KI zu erstellen, wĂ€re beispielsweise eine groĂe Hilfe. ChatGPT-UnterstĂŒtzung auch bei speziellen Aufgaben, wie dem Erzeugen von Beispieltexten fĂŒr den Fremdsprachenerwerb, ist bei den Lehrenden ebenfalls sehr willkommen. So wundert es nicht, dass die erste Reaktion seitens des Rektorats im Zusammenhang mit ChatGPT auf Kritik stieĂ. Ein komplettes Verbot der Nutzung von KI-Systemen in der Lehre erschien den meisten Teilnehmer*innen weder sinnvoll noch durchsetzbar.
Der Workshop neigte sich gen Mittag dem Ende zu und Jan Horstmann resĂŒmierte, dass das Aufkommen praxistauglicher KI-Systeme offenbar einen Prozess gröĂerer VerĂ€nderungen im Wissenschaftsbetrieb wesentlich mit angestoĂen habe. Der Workshop habe gezeigt: Viele Fragen und noch wenig Antworten stehen im Raum. Er warb eindringlich dafĂŒr, die geisteswissenschaftliche Perspektive mit diesen groĂen VerĂ€nderungen zu verbinden.
Schreibe einen Kommentar