Die Digital Humanities befassen sich mit der Konzeption, Entwicklung, Anwendung und kritischen Reflexion computer-basierter Verfahren und Werkzeuge für geistes- und kulturwissenschaftliche Fragestellungen. Zu ihren Schwerpunkten zählen u.a. die Digitalisierung des kulturellen Erbes (Text, Bild, Objekt), die computergestützte Modellierung und Analyse dieser Daten und die Entwicklung von digitalen Infrastrukturen für die geisteswissenschaftliche Forschung. Konkrete Arbeits- und Forschungsfelder sind z.B. digitale Editionen, quantitative Textanalyse, Visualisierung komplexer Datenstrukturen oder die Theorie digitaler Medien.

Das Kolloquium bietet einen Überblick über die aktuellen Entwicklungen des Faches. Dabei soll mittels Literaturstudium besonders das Verhältnis der Digital Humanities zu den klassischen Geisteswissenschaften einerseits und zu den Informationstechnologien andererseits erörtert werden.

Zu jeder Sitzung werden dazu Texte durch studentische Referate zugänglich gemacht, über die danach jeweils diskutiert wird. In der Diskussion gilt „Hab ich nicht gelesen“ nicht; „das Argument habe ich nicht verstanden, kann es aber beschreiben“, schon.


Wocheplan und Literaturliste

10.10.23: Einleitung

17.10.23: Kurzpräsentationen -- Auswahl

Bitte gehen Sie die Literaturliste durch und sich bis 17.10 in Ilias für zwei Kurzpräsentationen (jede um 5 Minuten per Studierende) einschreiben.

Wir treffen uns bei Bedarf für Beratung und Themendiskussionen.

24.10.23: Thema 1, Überblick über „Digital Humanities”

Beide Buchkapitel sind innerhalb des Universitätsnetzes (z.B. per VPN) frei verfügbar.

Hintergrund:

Fragen

  • Was kann man mit Rechnern machen, das ohne sie nicht möglich wäre?
  • Sollte man als geisteswissenschaftliche Wissenschaftlerin/geisteswissenschaftlichen Wissenschaftler digital arbeiten?
  • Kann man Bücher lesen, ohne sie zu lesen? (distant reading). Was kann man dann über sie sagen?
  • Ist Literaturwissenschaft „science“ oder „humanities“? Was mit digitaler Literaturwissenschaft?
  • Können Quellen in Daten transformiert sein? Wenn ja, wie?
  • Werkzeug oder Methode? Denkt ihr GeisteswissenschaftlerInnen sollten sich nur auf die arbeitsökonomische Ebene fokussieren oder auch die resultierende Methode benutzen?
  • Habt ihr ein anderes Verständnis der DH? Vergisst Thaller wichtige Punkte?

31.10.23: Thema 2, Filmkostüme

Johanna Barzen, Fabian Bühler und Frank Leymann (2022): Der MUSE Datensatz. In: Zeitschrift für digitale Geisteswissenschaften, Sonderbände, 5: Fabrikation von Erkenntnis – Experimente in den Digital Humanities. DOI: 10.17175/sb005_012

Fragen

  1. „Kleidung als Sprache“: Gibt es eine Kostümmustersprache, bzw. mehrere Kostümmustersprachen?
  2. Widersprechen sich diese beiden Aussagen?
    1. „Die Relevanz der Daten innerhalb des Projekts MUSE ist durch die intrinsische Forschungsfrage des Projektes definiert [\ldots]“
    2. „[D]er Datensatz [bietet] für weiterführende Untersuchungen aber durchaus Potenzial.“
  3. Was sind die Vorteile und Nachteile einer Überführung der Kategorien in numerische Daten?
  4. Gibt es Verbindungen zwischen dieser Arbeit und Filmanalyse? Könnte man sie weiterentwickeln?
  5. Was ist in dieser Arbeit erforscht: Daten oder Metadaten? Oder physische Objekte?

07.11.23: Thema 3, Virtuelle Museumsräume

Vera Piontkowitz und Manuel Burghardt (2022): Best Practices für die Gestaltung virtueller Museumsräume - Experimente im Spannungsfeld von Human Computer Interaction, Digital Humanities und Public History. In: Zeitschrift für digitale Geisteswissenschaften, Sonderbände, 5: Fabrikation von Erkenntnis – Experimente in den Digital Humanities. 10.17175/sb005_005_v2

Fragen

  1. Werden zukünftig virtuelle Ausstellungen generell oder teilweise physische Museen ersetzen?
  2. Ist es in Ordnung, eine 19 Jahre alte Publikation als Basis einer Auswertung gegenwärtiger VR-Systeme zu verwenden?
  3. Sollen virtuelle Museen die reale Welt kopieren?
  4. Sind die in diesem Artikel diskutierten Museumssysteme VR-Systeme oder normale Websysteme?
  5. Ist „die freie Bewegung im Raum“ in bildschirmbasierten VR-Systemen möglich?
  6. Ist die Verwendung von Durchfliegen der Räume und Teleportation in Ordnung in Museum-VR? Wenn ja, sollte man bestimmte Regeln dafür beachten?
  7. Was ist die Unterschied zwischen Natürlichkeit und Immersion?
  8. Warum wird über visuelle Aspekte viel diskutiert und über Audio nur wenig?

14.11.23: Thema 4, Analyse von Märchen

Berenike Herrmann und Jana Lüdtke (2023). A Fairy Tale Gold Standard. Annotation and Analysis of Emotions in the Children’s and Household Tales by the Brothers Grimm. In: Zeitschrift für digitale Geisteswissenschaften, 8. DOI: 10.17175/2023_005

  1. Prägen Märchen das Verständnis von Gefühlen bei Kindern?
  2. Ist das Potenzial für Gefühle (emotional potential) in Texten von Epochen, Genres, und Produktionsfaktoren unabhängig?
  3. Kann man Gefühle in Texten nur auf Basis der textuelle Ebene, d. h. unabhängig von der Rezeption des Lesers, annotieren?
  4. Was sind die Vor- und Nachteile, Sätze statt Wörter als Grundlage eine statistische Textanalyse zu verwenden?
  5. Was sind die Vorteile und Nachteile bei annotations- bzw. Deep Learning-basierten Methoden in der statistischen Textanalyse?

21.11.23: Thema 5, Komplexität/Literaturanalyse

Fragen

  1. Was bedeutet „Übersetzung” in diesem Kontext: „Dadurch wird eine literaturhistorische Frage in vergleichsweise einfache Phänomene die verhältnismäßige Häufigkeit von Wörtern im Kontext einer Gruppe von Texten übersetzt.” (Seite 4)
  2. Wäre es möglich Texte zu analysieren, ohne text-externes Wissen oder Wissen über die Welt zu haben?
  3. Ist es für den Computer möglich Erkenntnisse zu generieren?
  4. Ist das Komplexitätsmodell nachvollziehbar und sinnvoll? Wie kann man es in praxis verwenden?
  5. Sind die Abbildungen klar und verständlich?

28.11.23: Thema 6, Digitale Editionen

Grundbegriffe

  • Diplomatic edition
  • Transcription
  • Objectivity and interpretation
  • The grid of features

Fragen

  • What is the role of objectivity in diplomatic editions?
  • What does it mean that a transcription behaves like as a model of the manuscript?
  • “Where to stop” (sec. 2.3) vs. “Definition of done” in Scrum (https://scrumguides.org/scrum-guide.html#increment)
  • What is a “Documentary Digital Edition”? (sec. 4) The role of the developers.

05.12.23: Thema 7, Modellierung

  • Arianna Ciula and Øyvind Eide (2017): Modelling in digital humanities: Signs in context. Digital Scholarship in the Humanities, Volume 32, Issue suppl_1, 1 April 2017, Pages i33–i46.
    https://doi.org/10.1093/llc/fqw045
  • Julia Flanders and Fotis Jannidis (2018): Data modeling in a digital humanities context. An introduction. P. 3–25 in: Julia Flanders and Fotis Jannidis (eds) The Shape of Data in Digital Humanities : Modeling Texts and Text-based Resources. London and New York.
    Scan in Ilias: https://www.ilias.uni-koeln.de/ilias/goto_uk_fold_4302425.html

Fragen

  1. Wie verhält sich „Modellierung” zu „Datenmodellierung”?
  2. Lernschleife der Modellierung bzw. agilität/SCRUM in Projekte. Ähnlichkeiten und Unterschiede?
  3. Diskutieren Sie die Beispiele der unterschiedlichen Modelle im Kontext einiger Disziplinen.
  4. Flanders/Jannidis nach sollten Daten unabhängig von Werkzeugen (tools) sein. Ist dieser Standpunkt mit Pierazzos Digital Documentary Editions vereinbar?
  5. Semiotik und Modellierung—wieso stehen diese beiden in Verbindung und was macht diese Verbindung aus?
  6. „Modelling Literacy”—was bedeutet das und weshalb ist es wichtig? Stickwörter: Corona, Klima, Ökonomie.Daten
  7. Modelldefinitionen: „By modelling we intend a creative process of thinking and reasoning where meaning is made and negotiated through the creation and manipulation of external representations" (Ciula/Eide) bzw. „[M]odeling is a way to make explicit our assumptions about the nature of a text/artefact” (Flanders/Jannidis). Welche Unterschiede sehen Sie? Wie sind die beide Definitionen Ähnliche?
  8. Verwenden Sie die Modellbegriffe in Ciula/Eide und/oder Flanders/Jannidis zur Analyse der Modellierung in früheren Artikeln dieses Semesters.

12.12.23: Thema 8, Prosopographische Linking

  • Jan Michael Goldberg und Marcel Mernitz (2023): Automatisiertes Record Linkage in prosopographischen Datenbeständen am Beispiel historischer Quellen Leipzigs. In: Zeitschrift für digitale Geisteswissenschaften, 8. DOI: 10.17175/2023_001_v2

Fragen

  1. Warum sollte man Personendaten zusammenführen?
  2. Was ist die Bereinigung von Daten? Warum ist sie notwendig? Ist sie im Einklang mit guter wissenschaftlicher Praxis?
  3. Definition von Datenfeldern (Tab. 1): ist es OK, oder gibt es Probleme mit der Datenmodellierung? Hinweise: Hochzeiten, Beruf.
  4. Warum wurde ein Regelbasiertes statt einem KNN-basierten System entwickelt? Können Sie andere (bessere) Implementierungen vorschlagen?

19.12.23: Thema 9, Kunstgeschichte und Provinienz

  • Sabine Lang: »[…] nicht die Ausnahme, sondern der Normalfall[!]« Die digitale Lücke in der Kunstgeschichte und Provenienzforschung. In: Zeitschrift für digitale Geisteswissenschaften, 8. DOI: 10.17175/2023_002

Fragen

  1. Warum ist das abwesende Objekt ein wichtiges Forschungsthema in der Kunstgeschichte?

  2. Ist es in Ordnung, problematische Begriffe in Werktiteln oder Beschreibungen durch Sternchen zu ersetzen? Sollte es möglich sein, die problematischen Begriffe auf Anforderung anzuzeigen?

  3. In der Datenmodellierung wählt man aus, was man in das Modell aufnehmen möchte (vgl. Pierazzo; Flanders/Jannidis). Führt das zu problematische Lücken in den Daten?

  4. Kann man digitale Lücken vermeiden?

  5. „[D]ie digitale Lücke hat somit das Potenzial, mit den Betrachtenden in den Dialog zu treten.“ Sind Sie mit dieser Aussage einverstanden?

09.01.24: Thema 10, Kulturerbedokumentation

  • Franco Niccolucci and Julian Richards (2019): ARIADNE and ARIADNEplus. In: The ARIADNE Impact. Budapest: 7–26.
  • Christian-Emil Smith Ore and Espen Uleberg (2019): The ADED project – a Norwegian infrastructure for excavation data. In: The ARIADNE Impact. Budapest: 123–134.

http://www.archaeolingua.hu/book/ariadne-impact

Fragen

  1. Über Herausforderungen der Informationsintegration an dem Beispiel von der auf Epochen basierten Integration: Gibt es eine Römerzeit in Norwegen? In Dänemark? In Italien? In Großbritannien? Wenn ja, sind diese zeitlich betrachtet identisch? Falls diese zeitlich voneinander abweichen: Wie können Daten dennoch integrieren werden?
  2. Sind diese beiden Beiträge wissenschaftlich? Falls dem so ist: in wie fern weichen sie von den bisher betrachteten wissenschaftlichen Artikeln ab?
  3. Zeiten bis zur Erneuerung: welche Zeitspanne umfassen:bevor sie ausgetauscht werden? Gibt es systematische Unterschiede, d.H. bestehen die genannten Punkte immer oder ist normalerweise eine Zeitspanne länger als eine der anderen o.ä.?
    1. archäologische Daten
    2. Frontends (z.B. Apps oder Websysteme)
    3. Datenbanksysteme
  4. Transdisziplinäre Datenintegration: Die beide Artikeln dreht sich hauptsächlich um die Archäologie. Mit welche andere Disziplinen könnte man archäologische Daten natürlich integrieren? Könnte man eine solche interdisziplinäre Integration mit Methoden umsetzen, die auf den in diesem Artikeln beschriebenen Methoden aufbauen oder diesen ähneln?

16.01.24: Thema 11, Modellierung als Medientransformation

  • Ciula, Arianna, Øyvind Eide, Cristina Marras, and Patrick Sahle (2023). Modelling as Media Transformations. Chapter 4 in: Modelling Between Digital and Humanities: Thinking in Practice. Cambridge: Open Book Publishers. DOI: 10.11647/OBP.0369.

Fragen

  1. Gibt es Modelle, die keine Medienprodukte sind?
  2. Ist die Modellfunktion
    modelling = (modeller+, model (mediaProduct+), target+)
    korrekt? Ergibt sie Sinn?
  3. Wie kann man für die Zukunft modellieren? Warum macht man so etwas?
  4. Sehen Sie weitere mögliche Anwendungsfälle für Critical Stepwise Formalisation?

23.01.24: Thema 12, Die nächste Schritte?

Gern können Sie den ganzen Text lesen. Unser Fokus (und prüfungsrelevant) ist Teil 7: Next Life: My Very Own Ivory Tower, 81–93.

Hauptpunkte

  1. History is the study of all phenomena which require the analysis of information created by human endeavour where the creators of that information cannot – or shall not – be asked about the meaning of the information left behind.
  2. Research is defined by a system of rules for the communication of disagreements about interpretations of information; out of their application an increase in the body of intersubjectively agreed upon interpretations arises. Research is defined by a consensus about acceptable models of argumentation, not about the knowledge domain to which these models are applied.
  3. Historical sources should not be interpreted as signs for an unequivocal message. They are tokens which have to be interpreted by a historian. Such interpretations have to be documented as precisely as possible, as a concrete disagreement about the interpretation of a specific token indicates a focus for the necessary clarification of intersubjective understanding.
  4. Information taken from historical sources can be represented as a specific configuration of tokens with a specific geometry.
  5. Any subset of the tokens within such a configuration can be connected to arbitrarily many interpretations.
  6. Interpretations themselves are represented in information systems according to the same model. The overall model is recursive.
  7. Any two subsets of tokens within the same type of configuration can be compared according to one or more inherent metrics.
  8. Any two interpretations on the same interpretative dimension can be compared according to one or more inherent metrics.
  9. All existing interpretative dimensions of two sets of tokens form a context, which has to be considered, when comparing the two sets of tokens.
  10. An information system fit for the handling of historical sources should exist as a set of permanently running processes, which try to remove contradictions between tokens. Such tokens are used to represent data. They do not directly map into information. Information is represented by a snapshot of the state of a specific subset of the concurrently running processes.
  11. The data in the totality of historical sources, or any subset thereof, forms a mutual context for the interpretation of any set of specific items contained therein. It can be envisaged as a set of n-dimensional configurations of tokens representing physically existing sources, each of which exists in an m-dimensional universe of interpretative assumptions. Information arises out of these data by permanently running processes, which try to minimise contradictions and inconsistencies between subsets of the data.
  12. This model is both, a conceptual one for the hermeneutic “understanding” of historical interpretation, as well as a technical one for future information systems supporting historical analysis.

Themen

  1. Context oriented programming
  2. Extended Data Types
  3. Fuzzy and Vague Reasoning

Wenn jemand seine BA-Arbeit über solche Themen schreiben möchten, nehmen Sie bitte Kontakt. Es gibt Unterstützung.

30.01.24: Zusammenfassung und Diskussion

Folien.


Studienleistung

  • Schriftliche und mundliche Präsentation zwei Themen
    • bitte laden Sie die schriftlichen Teile in Ilias hoch.
  • Teilnahme in Diskussionen

Mündliche Prüfung

Prüfungen finden in Institut für Digital Humanities, Universitätsstraße 22, Raum 1.02 (1 OG) statt.

Schreiben Sie mir bitte an, um ein Termin für Ihre Prüfung zu vereinbaren.

  • Teil von AM2-Modulprüfung
  • Termine in Februar:
    • Dienstag 20. Februar 10:00–13:00 und 14:00–17:00
    • Mittwoch 21. Februar 10:00–13:00 und 14:00–17:00
    • Wenn Sie einen späteren Termin möchten, nehmen Sie bitte Kontakt.
  • Sie werden in 9 von diesen Themen geprüft
    • Bitte bringen Sie in der Prüfung eine Liste mit 9 Themen, die Sie als Grundlage für die Prüfung gewählt haben, mit