| ,

Skalen, skalar, skalieren … Ein Workshopbericht

Am 22. und 23. Mai traf sich eine interdisziplinäre Gruppe von Forschenden im Rahmen eines internationalen Workshops zum Thema „Scaling from digital and computational perspectives“ an der LMU München (Programm verlinkt auf: https://www.cas.lmu.de/en/events/event/scaling-from-digital-and-computational-perspectives.html). Ich hatte die Ehre, ebenfalls eingeladen zu sein, auf diesem Workshop einen Vortrag zu halten, da mehrere meiner bisherigen Forschungsaktivitäten mit den Themen Skalierbarkeit oder auch spezifischer mit Scalable Reading zu tun hatten. Ich nutze diesen Blogpost, um ein ganz eigenes Fazit zu dieser schönen Veranstaltung zu ziehen. Es ist nicht mein Ziel, einen vollständigen Bericht zu geben oder die gehaltenen Vorträge und Diskussionen zusammenzufassen. Wer Vollständigkeit erwartet, möge also bitte direkt hier aufhören zu lesen. ðŸ™‚

Man fand sich zusammen im Center for Advanced Studies, das sich in einer schönen Villa in Münchens Seestraße befindet. Der Workshop wurde vom Organisator Julian Schröter (LMU) mit einigen allgemeinen Beobachtungen, Gedanken und Fragestellungen zum Thema eröffnet. Grundsätzlich stellte er die Frage, ob der methaphorische Gebrauch von Skalierung als analytisches Herein- und Herauszoomen in und aus einem Untersuchungsgegenstand (z.B. mit einem Slider in einem graphischen Userinterface) erstrebenswert sei. Im Verlaufe des Workshops wurde deutlich, dass der Begriff des Skalierens tatsächlich in stark divergierenden Bedeutungen verwendet wird und somit einerseits nach terminologischer Schärfung verlangt, andererseits aber auch das Potenzial besitzt, getrennte Wissensbereiche und Disziplinen miteinander zu verbinden.

In ihrem eröffnenden Keynote-Vortrag zu „Diffractive Writing“ hob Katherine Bode (Australian National University) die Grenzen von Skalierbarkeit und etwas, dass sie ontologische Inkommensurabilität nennt, hervor. Mit starkem Bezug auf Anna Lowenhaupt Tsings „On Nonscalability“ (https://doi.org/10.1215/0961754X-1630424) betonte sie, dass wir Nicht-Skalierbarkeit als Instrument bzw. als Untersuchungskategorie bräuchten. Dinge skalieren immer in Abhängigkeit ihrer soziokulturellen Kontexte. Skalierung basiert auf Vergleichen mit Vorstellungen über das vertraute Aussehen/die Größe eines bestimmten Objekts. Diese Vorstellungen sind jedoch in kulturelle Kontexte, in Ontologien eingebettet: Australische Bäume und Ameisen haben andere (Bezugs-)Größen als europäische Bäume und Ameisen. Bode macht darauf aufmerksam, dass die Vorstellung von Data/Capta als Repräsentation realer Phänomene uns bewusst macht, dass sie sich ontologisch von dem unterscheiden, was sie repräsentieren. Daten und Realität stehen nicht in einer rein epistemologischen Beziehung zueinander, denn Daten sind stets subjektiv verzerrt (Bias).

Bereits der forschungsfragenbedingte Auswahlprozess von Daten und die Operationalisierung können als Skalierung begriffen werden, wie es auch Christian Wachter (Universität Bielefeld) in seinem Vortrag zur geschichtswissenschaftlichen Heuristik betonte und demonstrierte. Häufig interessiert man sich für ein größeres Phänomen, Thema etc. Davon ausgehend wählt man z.B. ein Textkorpus aus, von dem man dann wiederum einzelne Aspekte besonders untersucht. Das untersuchte Phänomen wiederum wird ebenfalls herunterskaliert auf messbare Einheiten. Dieser häufig Anwendung findende Prozess der Operationalisierung in der datengetriebenen Forschung geht in der Regel mit der Vision einher, dass ein im Kleinen operationalisiertes Phänomen auch wieder hochskalliert und z.B. automatisiert in großen Textkorpora nachgewiesen werden kann.

Der anwesende Mister Scalable Reading himself Thomas Weitin (TU Darmstadt) besprach in seinem Vortrag – statt über Scalable Reading zu sprechen – ebenfalls Aspekte der Operationalisierung: Wie kann die literarischen Texten häufig sugerierte Funktion der Empathiebildung ihrer Lesenden durch quanitiative Eyetracking-Experimente nachgewiesen werden? Er gewährte spannende Einblicke in jüngste Experimente des Darmstädter LitLabs (https://www.digitalhumanitiescooperation.de/litlab/) mit Texte lesenden Schulklassen und schien dabei en passant das Narrativ um die Spiegelneuronen als Grund für Empathiebildung zu widerlegen. Man darf auf kommende Publikationen gespannt sein!

Ich selbst habe mich in meinem Vortrag auf unser Intertextor-Projekt (https://uni.ms/intertextor) konzentriert, in dem es um die Annotation intertextueller Bezüge in einem semantischen Netzwerk geht, und mich dadurch stärker auf das Thema Scalable Reading bezogen. Im Scalable Reading sind tatsächlich mindestens zwei Skalen aktiv: die Korpusskala und die Methodenskala. Mit größeren Korpora geht in der Regel auch ein Wechsel in der Forschungsmethode einher (manuelle Annotation bietet sich für riesige Korpora genau so wenig an wie word2vec für Einzeltexte). Die unserer Konzeption des Intertextors zugrundeliegende Methode basiert auf Semantic-Web-Technologien, die in der Tat skalieren können, indem sie Ontologien mit expliziten Bezügen zugrunde legt. Die Linked Open Data Cloud (https://lod-cloud.net/) demonstriert, wie Wissensbestände digital modelliert und global aufeinander bezogen werden können.

Viel konkreter, oder man möchte sagen: plastischer, wird der Skalierungsbegriff in der Kunstgeschichte verwendet, um die es insbesondere am zweiten Workshoptag ging. Ursula Ströbele (HBK Braunschweig) beispielsweise betonte, dass in digitaler Kunst permanentes Skalieren möglich und allgegenwärtig sei. Die in nicht-digitalen Skulpturen häufig essenzielle Kategorie der Größe (man denke an ikonische Monumentalität oder exzentrischen Gigantismus einzelner Skulpturen) verliert dadurch jedoch völlig an Bedeutung. Bei Skulpturen der Augmented Reality hingegen erhält die Größe eines Kunstwerkes wiederum Aussagekraft.

Die vielen unterschiedlichen Perspektiven auf den Begriff des Skalierens haben einen fruchtbaren und bereichernden Diskurs hervorgebracht, der deutlich gemacht hat, wie wichtig Begriffsarbeit ist: Es ist gar nicht schlimm, in verschiedenen Disziplinen die selben Begriffe in unterschiedlicher Bedeutung zu verwenden. Die jeweiligen Bedeutungsdimensionen müssen jedoch explizit gemacht werden, um Verstehen (und damit letztlich auch Wissenschaft) zu ermöglichen.

Kategorien: ,

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Captcha wird geladen…

Weitere Beiträge