Fragen für Aufgabe 2

Eingereichte Fragen

Papiere

  • Katiyar, Arzoo/Claire Cardie (July 2017): “Going out on a limb: Joint Extraction of Entity Mentions and Relations without Dependency Trees”. In: Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Vancouver, Canada: Association for Computational Linguistics, pp. 917–928. url: http://aclweb.org/anthology/P17-1085.
  • Krautter, Benjamin/Janis Pagel/Nils Reiter/Marcus Willand (Dec. 2020): “»[E]in Vater, dächte ich, ist doch immer ein Vater«. Figurentypen und ihre Operationalisierung”. In: Zeitschrift für digitale Geisteswissenschaften 5. doi: 10.17175/2020_007.

Verständnisfragen

  • Wie funktionieren LSTM? (long short term memory)
  • Was ist mit softmax und sparsemax genau gemeint? Wo ist der Unterschied?
  • Was ist "gradient clipping" beim trainieren von Software?
  • Was sind argmax, softmax und sparsemax?
  • Was ist "neural chunking"?
  • Wieso ist es sinnvoll ohne dependency trees vorzugehen?
  • Wodurf zeichnen sich hidden layers auf?
  • Wobei handelt es sich bei einer baseline pipeline?
  • Was bezeichnet die Enkodierung der Output-Sequenz von links nach rechts bzw. umgekehrt, sowie die bidirektionalen Kodierung (Beispiel)? (Katiyar & Cardie, 2017, S. 918)
  • Welche Eigenschaften besitzt das im Paper beschriebene RNN und worin besteht die Neuerung im Vergleich zu vorherigen Modellen? (Katiyar & Cardie, 2017)
  • Was sind Netzwerkmaße genau?
  • Wieso werden Priors jeder individuelle Figur zugeordnet, wenn die Information allgemein für das Werk und nicht spezifisch für die Figur ist?
  • Was genau ist der Pearson-Korrelationskoeffizient ?
  • Verstehe ich das richtig, dass das vorgeschlagene Model immer ungenauer wird, je komplexer und weniger einfach in eine einfache Kategorie die Charaktere einzufassen sind?

Andere Fragen

Katiyar & Cardie (2017)

  • Warum wurden mehrschichtige bi-direltionale LSTMs für das Sequenz-Tagging genutzt?
  • Warum wurden attention-models genutzt?
  • Warum änderten sie ihre Zielsetzung mehrere Beziehungen (relations) einzubeziehen?
  • Welche Rolle spielen dependency trees?
  • "entity pretraining trick" klingt mehr nach einem workaround als einer Problemlösung. Und dennoch liegt der Plan dabei, Ergebnisse in Zukunft eben so zu verfeinern. Sind (solche) "tricks" üblich um gewünschte Ergebnisse zu erhalten?
  • Fig.1 scheint mir dennoch dem dependency tree recht ähnlich. Werden hier lediglich Unterschiede in der Struktur als Basis genutzt oder reicht schlichtweg das Ausklammern bestimmter Informationen (Land) welche aus der Relation zum physischen Ort(Stadt) steht. Ist hierbei die Reihenfolge ausschlaggebend, dass hier kein dependency tree vorliegt?
  • Da der ACE05 nachvollzogen werden konnte, um die "fehlenden Werte" zu ermitteln, ist es auffällig, dass selbige nicht niedergeschrieben wurden, fast so als hätte man dieselbe Diskrepanz festgestellt. Dies wird allerdings widerlegt. Mit welcher Grundlage?
  • Welchen Vorteil besitzt ein Verfahren, welches nicht auf Dependency Parse Tree Features basiert? (Katiyar & Cardie, 2017)
  • Was genau definieren die Autoren eigentlich als "Entity?" Ist mir aus dem Text nicht so hervorgegangen.
  • Was bringt eine wissenschaftliche Veröffentlichung wenn sie kaum bis gar keine Verbesserungen der aktuellen Publikationen bietet?
  • Why is it easier to do entity extraction on contiguous tokens rather than non-adjacent ones?
  • The different entities are categorized according to POS taxonomy?

Krauter et al., (2020)

  • Inwiefern ist das Distant Reading wichtig für die Operationalisierung?
  • Inwiefern unterscheidet sich das Projekt von anderen Projekten?
  • Wieso wird sowohl Bottom-Up als auch Top-Down Annotation verwendet?
  • Welchen Einfluss hat die recht heterogene Art des Figurentyps Intrigant*in auf die Klassifikation dieses Typs?
  • Machen "klassische" Figurentypen ein Spiel nicht berechenbar? So wird der Intrigant vorab "gebrandmarkt" damit das Publikum auch ja mitbekommt, wer der Intrigante ist.
  • Bestätigen oder widerlegen sich atypisch verhaltende Figurentypen in ihren Funktion eher. Dient hierbei Kontext als grundlegende Information und wie kann man dies in die Wertung einfließen lassen?
  • Ist gerade in dieser schnelllebigen Zeit eine Generalisierung in der Unterhaltungsbranche denkbar? Ist hier nicht ebenso die Kurzlebigkeit eines validen Korpus zu bedenken, der zwar auf "Trends" aufgebaubar wäre, jedoch nicht zwingend repräsentativ wirksam ist, solange die Datengrundlage stetigem Wandel unterliegt. Können so nicht ausschließlich Aussagen über geendete Epochen (etc.) getroffen werden?
  • Können strukturelle, thematische oder stilistische Analogien individuell annotiert und gleichzeitig validiert werden? Wie individuell "markant" darf besagte Analogie sein, um weiterhin zuverlässig dem entsprechenden Figurentyp zugeordnet zu werden?
  • Wie wird eine Bottom-Up vs. Top-Down-Klassifikation vorgenommen? (Krauter et al., 2020)
  • Welche Schwierigkeit tritt bei der Verwendung von supervised Machine Learning Methoden im Hinblick auf die Annotierung auf? (Krauter et al., 2020)
  • In welcher Form wurden die (annotierten) Daten für den Computer dargestellt? (Krauter et al., 2020)
  • Wäre es möglich die Figurenanalyse auf andere Text-Gattungen zu übertragen und wenn ja, was wäre dafür nötig?
  • Such a formal definition of character role in dramas reminds me of specific literal theory like Russian formalism or Structuralism. Do you think there's a connection between these schools and computational criticism?
  • Given Figure 3, can we generalize and say that the best classification results are achieved by increasing the number of features?
  • The whole process described here can be described as Unsupervised Learning?