Am Montag, den 27. Mai 2019, findet zum ersten Mal der âTag der Digital Humanities an der WWU MĂŒnsterâ (DH@WWU2019) statt. Ziel der Veranstaltung ist es, die digitalen Methoden und Techniken, auf welche die Geisteswissenschaftler in ihrer Arbeit zurĂŒckgreifen können, an der UniversitĂ€t MĂŒnster bekannter zu machen. Vor allem aber soll sie alle jenen eine Plattform bieten, die sich fĂŒr die Digital Humanities interessieren und darĂŒber miteinander ins GesprĂ€ch kommen möchten.
Ein reichhaltiges Programm informiert ĂŒber Grundlegendes, aber auch ĂŒber konkrete Werkzeuge und Methoden der DH. Den ganzen Nachmittag ĂŒber gibt es Gelegenheit zum Netzwerken und zur Kontaktaufnahme mit Expert*innen, sei es bei Workshops, KurzvortrĂ€gen, einer Postersession mit Posterslam (ZweiminĂŒtige Kurzvorstellung der Poster) oder einfach bei einem Kaffee im âMeet & Greetâ-Bereich.
Den Tag abschlieĂen wird ein Abendvortrag des Leipziger Informatikers Dr. Stefan JĂ€nicke zum Thema âVisualisierung in den Digital Humanitiesâ.
PROGRAMM
Zeit | Flur | Raum JO 101 | Raum JO 102 |
---|---|---|---|
13 – 14 | Meet & Greet (Kaffee etc.) | Schnupperworkshop I: Von schmutzigen Daten zur interaktiven Visualisierung: Daten reinigen und analysieren mit OpenRefine und Palladio* | Schnupperworkshop II: Korpuserstellung mit Pacx und Erzeugung automatischer phonemischer Transkriptionen mit WebMAUS* |
14 – 16 | Meet & Greet (Kaffee etc.) | Methodenparade: Automatische Texterkennung, Digitale Editionen, Text Mining, Data Mining, Soziale Netzwerkanalyse, Linked Data und Semantic Web, Git und GitLab | |
16 – 18 | Meet & Greet (Kaffee etc.) | Digital Humanities an der WWU â offenes Forum: Posterslam, PrĂ€sentation der Informatik an der WWU als Partner, Postersession, Forum Digitale Editionen: Vernetzung und Erfahrungsaustausch |
18 c.t. | Abendvortrag: Dr. Stefan JĂ€nicke (Leipzig): „Visualiserung in den Digital Humanities“ (Raum JO1) |
* FĂŒr die Teilnahme an den Workshops wird um eine kurze Anmeldung per E-Mail an cdh@uni-muenster.de gebeten.
Ort: JohannisstraĂe 4, 48143 MĂŒnster
Lageplan
Schnupperworkshop I: Von schmutzigen Daten zur interaktiven Visualisierung: Daten reinigen und analysieren mit OpenRefine und Palladio
Immer hĂ€ufiger nutzen wir Listen und Tabellen, um fĂŒr unsere Forschungen wichtige Daten zu Personen, Zeiten, Orten, Dokumenten usw. zusammenzutragen und auszuwerten. HĂ€ufig kommen diese Daten aber aus unterschiedlichen Quellen bzw. wurden in unterschiedlicher Weise aufgenommen. Die Folge sind unterschiedliche Schreibweisen von Namen und Begriffen oder unterschiedliche Formate bei Datumsangaben, die einer raschen seriellen Auswertung schnell im Wege stehen. Statt dessen haben wir es mit âschmutzigen Datenâ zu tun, die vor einer Auswertung gereinigt und vereinheitlicht werden mĂŒssen.
Je nach Fragestellung und Vorgehen kann es zudem hilfreich sein, die Daten neu zu strukturieren und um weitere Informationen aus dem Netz (z.B. Geodaten fĂŒr Ortsangaben) anzureichern. Das alles kann man mit viel Geduld hĂ€ndisch erledigen. Oder aber man setzt entsprechende Tools ein, wie zum Beispiel OpenRefine, das fĂŒr all diese Aufgaben verschiedene, einfach zu nutzende Möglichkeiten bereitstellt. Im Rahmen des kleinen Workshops sollen diese vorgestellt und an einem kleinen Praxisbeispiel ausprobiert werden. Am Ende sollen die gereinigten Daten noch in Palladio visualisiert werden, das unter anderem eine georeferenzierte Anzeige der Daten auf Karten ermöglicht und das zugleich mit einer Zeitachse verbindet, so dass raum-zeitliche BezĂŒge rasch sichtbar gemacht werden können.
Schnupperworkshop II: Korpuserstellung mit Pacx und Erzeugung automatischer phonemischer Transkriptionen mit WebMAUS
In diesem Workshop werden verschiedene Tools zur Erstellung und Annotation von Sprachkorpora vorgestellt und erprobt. Mit Pacx (Platform for Annotated Corpora in XML; http://pacx.sourceforge.net/), die auf Eclipse aufbaut und den XML-Editor Vex https://www.eclipse.org/vex/ sowie das Annotationstool ELAN https://tla.mpi.nl/tools/tla-tools/elan/ integriert, können sowohl schriftliche als auch gesprochene Sprachdaten annotiert und zu einem auslieferbaren Korpus kompiliert werden. Mit dem Tool WebMAUS https://clarin.phonetik.uni-muenchen.de/BASWebServices/interface/WebMAUSGeneral können automatisch erzeugte Segmentationen und phonemische Transkriptionen von deutschen und englischen Texten erzeugt werden. Im Workshop können eigene Daten mitgebracht und annotiert werden.
Abstract zum Abendvortrag:
Die Visualisierung als Forschungsinstrument fĂŒr die Digital Humanities hat in den letzten Jahren immer mehr an Bedeutung gewonnen und bringt den beteiligten Forschungsbereichen beiderseitigen Nutzen. Einerseits zielen Visualisierungen darauf ab, einen intuitiven Zugang zu riesigen digitalisierten Datenmengen zu ermöglichen, andererseits stellen die von Natur aus meist unvollstĂ€ndigen, inhomogenen und unsicheren historischen Daten die Visualisierungsforschung vor neue Herausforderungen. Die beste Vorgehensweise bei der Entwicklung einer Visualisierung in einem Digital Humanities Projekt ist ein problemorientierter, benutzerzentrierter Designansatz, der Wissenschaftler beider Fachrichtungen zwingt, sich intensiv mit Forschungsinteressen, Aufgaben und Problemen beider Parteien auseinanderzusetzen. DarĂŒber hinaus erhöht der starke interdisziplinĂ€re Austausch die Wahrscheinlichkeit, dass die resultierende Visualisierung dem avisierten Zweck dient und den Boden fĂŒr zukĂŒnftige Forschungsprojekte bereitet.Dr. Stefan JĂ€nicke habilitiert seit August 2016 an der Abteilung fĂŒr Bild- und Signalverarbeitung der FakultĂ€t fĂŒr Mathematik und Informatik an der UniversitĂ€t Leipzig zum Thema: „Forschungsmethodologie fĂŒr die Entwicklung von Visualisierungen im Bereich der Digital Humanities: InterdisziplinĂ€re Aspekte, Workflows, Visualisierungsdesign, Visual Analytics Paradigma und Fallstudien“.
Die Veranstaltung wird vom âCenter for Digital Humanitiesâ (CDH) der UniversitĂ€t MĂŒnster ausgerichtet.
Sie ist fĂŒr alle Interessierten offen, der Eintritt ist frei.
Schreibe einen Kommentar