[DHd-blog] Tagungsbericht „Annotationen in Edition und Forschung. Funktionsbestimmung, Differenzierung und Systematisierung“ (von Lisa Eggert, Maximilian Lippert, Fabian Etling)

[德语国家数字人文协会DHd-blog网站消息] Lisa Eggert (lisa.eggert@uni-due.de) Maximilian Lippert (maximilian.lippert@uni-due.de) Fabian Etling (etling@uni-wuppertal.de)

DerTerminus „Annotation“ gewinnt mit der fortschreitenden Verankerung der DigitalHumanities innerhalb der akademischen Landschaft immer stärker an Bedeutung.Gleichzeitig steht er in den Geistes- und Informationswissenschaften fürjeweils unterschiedliche Konzepte, welche zwar in Umfang, Einsatz undZielausrichtung variieren, aber auch konzeptuelle Parallelen aufweisen. Vor demHintergrund der Zusammenarbeit der verschiedenen Wissenschaftsdisziplinenscheint es daher geboten, verschiedene Annotationspraxen und die mit ihnenverbundenen Konzepte von Annotationen zu reflektieren und diskutieren, insVerhältnis zueinander zu setzen sowie Gemeinsamkeiten und Unterschiedlichkeitenzu systematisieren. Hierfür luden Julia Nantke und Frederik Schlupkothen (beideBergische Universität Wuppertal) vom Graduiertenkolleg „Dokument – Text –Edition. Bedingungen und Formen ihrer Transformation und Modellierung intransdisziplinärer Perspektive“ zur interdisziplinär angelegte Tagung„Annotationen in Edition und Forschung. Funktionsbestimmung, Differenzierungund Systematisierung“ (https://www.editionen.uni-wuppertal.de/de/veranstaltungen/tagungen/annotation.html) vom 20. bis zum 22. Februar2019 an die Bergische Universität Wuppertal ein. Wissenschaftler*innen ausverschiedenen Ländern und Fachbereichen berichteten in fünf Sektionen über ihreForschungsprojekte und -ergebnisse zu Annotationen, deren unterschiedlichenErscheinungsformen und Funktionsweisen sowie zu verschiedenen terminologischen,methodischen und technischen Fragestellungen. Der Annotationsbegriff wurdehierbei bewusst weit gefasst und sowohl auf digitale und analoge sowie manuelleund automatisierte Annotationsprozesse in unterschiedlichen Medien bezogen.

DieTagung eröffnete Key-Note-Speaker Willard McCarty (King’s College London) mitseinem Vortrag Making notes, reading annotations: Thoughts on a coupling,with examples, in dem er grundsätzliche Überlegungen zum Beschriften vonbeliebigen Objekten anstellte. Das Beschriften von Gegenständen in der Welt,also Annotation in einem weiten Sinne, diene dem Bewahren und Abrufen vonGedanken und könne nicht ohne die es bedingenden Umstände sowie daserforderliche Wissen über die jeweiligen Medien verstanden werden. DiesesAnnotieren sei außerdem immer auch eine temporäre kognitive Verbindung zwischenAnnotator*in und (physischem) annotiertem Objekt, wobei vorläufige Überlegungenerarbeitet, sprachlich ausgedrückt und angeordnet werden. McCarty plädiertedafür, dass eine Auseinandersetzung mit Annotationen auch immer jenes „Coupling“und die damit einhergehenden kognitiven Prozesse der Annotator*innen mit in denBlick nehmen sollte. Hierfür beschrieb er exemplarisch Vorgehensweisen desNotizenmachens in der Auseinandersetzung mit einem wissenschaftlichenGegenstand, angelehnt an die lexikographische Methode von James Murray, undmachte deutlich, dass auch moderne computergestützte Formen des Annotierens imHinblick auf das Coupling genauso funktionieren wie traditionellere Arten desBeschriftens, Markierens oder Notizenmachens. Im Anschluss zeigte er anhand vondrei weiteren beispielhaften Annotationsformen – mittelalterliche Glossen fürspätere Leser desselben Buches, Notizen eines Wissenschaftlers zu einemExperiment und schließlich ein politisches Graffito in Belfast –, wie die Gedankendes Beschriftenden in Bezug auf das beschriftete Objekt von Drittenwahrgenommen werden und wie sie dort funktionieren. So wurde klar, dass derBegriff „Annotieren“ im Sinne von Coupling sehr weit gefasst sein und auf vieleverschiedene Praktiken des Beschriftens referieren kann. An allen jenenPraktiken sowie den jeweils voneinander abweichenden Bedürfnissen aufRezipient*innenseite müssen sich laut McCarty schließlich auch Entwickler*innenvon Annotationstools orientieren.

DenAuftakt innerhalb der ersten Sektion „Form von Annotationen“ machte mit MarkHall (Martin-Luther-Universität Halle-Wittenberg) ein Informatiker. In seinemVortrag Annotations are Not Just for Writing fokussierte er auf die ebenangesprochene Rezipient*innenseite des Annotierens sowie die hier virulentenAnforderungen bei der Programmierung eines Annotationstools. Tools, die für dieText Encoding Initiative (TEI) entwickelt werden, konzentrieren sichhauptsächlich auf das Erstellen, Kodieren, Kommentieren und Verarbeiten von Text.Leider gerate laut Hall dabei das langfristige Ziel von Annotationen, derTransfer von Wissen, das mit einem bestimmten Text verknüpft ist, oftmals ausdem Fokus und werde von aktuellen Tools nicht ausreichend berücksichtigt. Vordiesem Hintergrund stellte er den selbstentwickelten Digital Edition Reader,eine datenagnostische JavaScript-Komponente, welche eine digitale Leseumgebungmit angenehmer Leseatmosphäre bietet, anhand einer eigens erstelltenFaust-Edition vor. Um im digitalisierten kommentierten Text Orientierung zufinden, wurden Standards bezüglich gängiger physischer Texte auf den DigitalEdition Reader übertragen. Diese betreffen die Repräsentation der Annotationensowie eine Instanz zur Navigation im annotierten Text. Der Reader bietet zweiDarstellungsmodi an, um verschiedene Nutzerbedürfnisse zu befriedigen, wobeider Haupttext stets zentral ist. Im ersten Modus steht dieser in der Mitte,während ein Panel links davon via Inhaltsverzeichnis, Index und Suchfeld dieNavigation ermöglicht sowie ein Panel rechts die Annotationen abbilden soll. ImHaupttext werden die kommentierten Textpassagen in Abhängigkeit von denDesignvorgaben der Edition entweder mithilfe von Standard-Web-Links oder durchdas Hinzufügen von Fußnoten am Ende der Passage hervorgehoben. Der zweiteDarstellungsmodus fokussiert stärker auf die Rezeption des Haupttextes, wobeiBenutzer*innen durch einen Klick auf Markierungen im Text auf einzelneAnnotationen zugreifen können. Die Anmerkungen erscheinen nun in einemBlockbereich am unteren Rand des Bildschirms, wobei die Repräsentation an dieFußnoten eines Buches angelehnt ist.

ImAnschluss fragte Manuel Bamert (ETH Zürich) in seinem Vortrag „Aha!“ –Wissenstheoretische Perspektiven auf Stiftspuren in Privatbibliotheken nachdem literaturwissenschaftlichen Erkenntnispotential von Lese- und Stiftspurenin Thomas Manns Privatbibliothek und wie derlei handschriftliche Annotationenin einem digitalen Textkorpus be- und verarbeitet werden können. Dies ist auchdas erklärte Vorhaben des im Vortrag vorgestellten vom SchweizerischenNationalfonds geförderten Forschungsprojektes „Produktive Lektüre. Thomas MannsNachlassbibliothek“ (http://www.lit.ethz.ch/forschung/laufende‑drittmittelprojekte/thomas‑manns‑nachlassbibliothek.html) an der ETH Zürich. Hier sollerstmals systematisch der gesamte Bestand von Thomas Manns Privatbibliothek aufStiftspuren untersucht und vollständig digitalisiert werden. Ziel ist dieErstellung eines digitalen Recherchetools, mit dem man systematisch nach denStiftspuren suchen kann. Bamert erörterte in seinem Vortrag vor allem dieterminologischen, epistemologischen und praxeologischen Fragestellungen undProbleme, welche im kulturhistorisch-philologischen Spannungsfeld dersogenannten Lesespurenforschung auftreten können. So gebe es für dieErschließung und Erforschung von Privatbibliotheken sowie die dortvorzufindenden Lesespuren keine terminologischen Standards. Diese Arten vonAnnotationen lassen sich schließlich nicht über ihre jeweils spezifischeFunktionalität definieren, sondern vielmehr über ihre Materialität. Dabeikönnen Stiftspuren wie Unter-, An- und Durchstreichungen, die also selbst nichtals Schrift zu bezeichnen sind, ebenso relevant sein wie Randbemerkungen – soetwa das titelgebende „Aha!“. Barmert fragte vor diesem Hintergrund, wie sichder Begriff der Annotation für derlei Lesepuren verwenden lasse und wo seineGrenzen seien. Weiterhin sei zu klären, welche Art von Lesespuren überhauptdigital erfasst werden und wie diese später per Recherchetool aufsuchbar seinsollen. Als Forschungsdesiderat markierte er zum Schluss zudem das Fehlen einerPraxistheorie des Annotierens, die neben den kulturellen und historischenBedingungen auch die körperlichen und situationellen Aspekte von Annotationenmiteinbezieht.

Joseph S.Freedman (Alabama State University Montgomery) nahm in seinem Vortrag Footnotesin Historical Context, Their Usefulness for Multiple Narratives, and theirSometimes Contested Use into the 21st Century eine weitere, ganz spezielleArt von Annotationen in den Fokus: die Anmerkungsform der Fußnote. Im Hinblick darauf, dass einBlick auf historische Praktiken oftmals hilft, nützliches Wissen für dieheutige Zeit zu generieren, befasste er sich mit dem ersten Gebrauch vonFußnoten in Zentraleuropa ab der Mitte des 17. Jahrhunderts. Diese Form derAnmerkungen sei von wissenschaftlichen Autoren auf unterschiedliche und stetsinnovative Weisen verwendet worden. Als Beispiel dienten FreedmanVeröffentlichungen von Johannes Theill, der ab 1642 die ersten bekanntenFußnoten gebrauchte. Dabei nutzte er zur Sequenzierung zumeist das griechischeAlphabet sowie verschiedene Ziffern. Die Fußnoten enthielten kommentierendenText oder Zitate; manchmal wurden sie von Marginalien ergänzt. Mit der rasantenZunahme wissenschaftlicher Publikationen in der zweiten Hälfte des 17.Jahrhunderts stiege auch der Bedarf nach ordnenden Verweistechniken, was an derFußnotenverwendung von Adam Rechenberg deutlich wurde. Dessen innovativeVerwendung von Fußnoten, welche teilweise längeren Text enthalten, mitverschiedenen Symbolen eingeleitet oder auch mit Klammern links und rechtseingeschlossen werden, wurden im Vortrag anhand einschlägiger Textstellendemonstriert. Ein Blick auf jene damals neuartige Verwendung von Anmerkungen,die aus spezifischen Gründen erfolgte und bestimmte Funktionen übernahm, könnelaut Freedman auch heute noch die Entwicklung neuer Paradigmen anregen.Anschließend daran diskutierte er die Möglichkeit, dass die Digital HumanitiesBrücken zwischen verschiedenen wissenschaftlichen Disziplinen bauen undStudierende zudem eine Perspektive in der sich digitalisierendenWirtschaftswelt eröffnen können.

AlsAuftakt des zweiten Tages warf Georg Rehm (Speech and Language Technology Lab,DFKI, Berlin) mit seinem Keynote-Vortrag Observations on Annotations – FromComputational Linguistics and the World Wide Web to Artificial Intelligence andback again aus den Perspektiven verschiedener Forschungsfelder heraus einenBlick auf Annotationen als wissenschaftliche Methode und technischesHilfsmittel entlang verschiedener Dimensionen und Merkmale. Dabei bezog er sichsowohl auf Grundlagenforschung als auch auf die angewandte Entwicklung vonTechnologien, sowohl auf Annotationen die von einer kleinen Zahlhochspezialisierter Forscher*innen vorgenommen, als auch auf solche, diepotenziell von Millionen von Nutzer*innen verwendet oder erstellt werdenkönnen. Einleitend führte Rehm einflussreiche W3C-Standards auf, wobei erinsbesondere auf den W3C-Web-Annotations-Standard und dessen Implementierung indas Tool Hypothes.is (https://web.hypothes.is/) einging. Anschließendbeleuchtete er mit einigen Beispielen den Einsatz von Annotationen in denGebieten der künstlichen Intelligenz, der Computerlinguistik sowie derSprachtechnologie und diskutierte die Frage nach den Möglichkeiten derEvaluierung und Verifizierung von annotativen Inhalten, welchen er im Hinblickauf den Einsatz in Open-Science-Szenarios eine entscheidende Rolle zuschreibt.Interessant schien besonders die Überlegung, mithilfe von webbasiertenAnnotationen gegen die Verbreitung sogenannter Fake News im Internetvorzugehen. Rehm schloss seinen Vortrag mit Betrachtungen zur Komplexität,Wirkkraft und Bedeutung von Annotationen in einer digitalen Welt, welche immerstärker von Werkzeugen und Technologien bestimmt wird, die aus den Bereichendes Machine Learning und der Künstlichen Intelligenz stammen.

Diezweite Sektion „Annotation als individuelles Werkzeug“ leitete Patrick Helling(Universität zu Köln) mit seinem Vortrag GeisteswissenschaftlicheForschungspraxis – Empirische Nutzerstudie zum Annotationsverhalten beianalogen und digitalen Textmaterialien ein. Da Geisteswissenschaftler*innenfür ihre Arbeit zunehmend digitale Werkzeuge benutzen und vor allem dasdigitale Annotieren von digitalem Text eine zunehmende Relevanz fürForscher*innen erfährt, wurde eine Nutzer*innenstudie als Online-Umfrage mit 35Fragen erstellt, um zu ergründen, welches Verhalten Nutzer*innen beimAnnotieren von analogen und digitalen Textmaterialien an den Tag legen. Sobildete den Kern der Umfrage jeweils ein Fragenblock zur Arbeit mit analogenbzw. digitalen textbasierten Materialien und entsprechendemAnnotationsverhalten. Von insgesamt 125 Teilnehmer*innen schlossen 90 denFragebogen auswertbar ab. Dabei stellte sich heraus, dass die Nutzung vondigitalen Materialien unter Forscher*innen zwar verbreitet ist, dieseMaterialien aber häufig ausgedruckt und anschließend analog annotiert werden.Die Möglichkeit des digitalen Annotierens stelle demnach meist keineÜberführung von analogen Arbeitsschritten in den digitalen Raum dar. Im Rahmender Studie wurde auch nach der beruflichen Position der annotierenden Personengefragt, wodurch sich Aussagen über altersspezifische Unterschiede hinsichtlichder Annotationspraxis treffen ließen. Erstaunlicherweise sinke gerade mit demAlter – also hauptsächlich in der Riege der Professor*innen – die Nutzung desanalogen Annotierens. Dieses Umfrageergebnis könnte mit dem Wissenshorizont derBefragten zusammenhängen, durch welchen die Annotationspraxis möglicherweise anRelevanz verliert. Der noch ausstehende zweite Teil der Studie, in welchemTiefeninterviews einiger bereits befragter Personen erfolgen werden, werdevermutlich weiterführende Erkenntnisse zu dieser und weiteren Fragen liefern.

Inseinem Vortrag Annotationen im Schreibprozess. Ein Beitrag zu einerempirisch fundierten Spezifikation für digitale Annotationsumgebungen in denGeisteswissenschaften skizzierte Felix Lange (Max-Planck-Institut fürWissenschaftsgeschichte, Berlin) einleitend die idealtypische Konzeption vonAnnotationssystemen im Kontext eines „Scholarly Web“. Hierbei führte er Pundit(http://www-old.thepund.it/) als beispielhaftes Tool an,stellte aber auch fest, dass sich bis jetzt keines der existierendenwebbasierten Systeme in den Digital Humanities habe durchsetzen können.Ausgehend von einer Arbeitsdefinition des Begriffs „Annotation“ – hier bildeteer drei Klassen: 1. editorische Auszeichnungen im Editionsprojekt, 2. serielleAuszeichnungen für die qualitative sowie quantitative Datenanalyse und 3.„Notiz-Annotationen“ als individuelle Hinzufügungen durch Leser*innen imProzess des Lesens – legte Lange den Fokus auf die empirische Untersuchung derFunktion von Notiz-Annotationen im Forschungsprozess, des Verhältnisses derEigenschaften webbasierter Annotationssysteme zu den Nutzungsgewohnheiten undAnforderungen in den Geisteswissenschaften sowie der Frage der Weiternutzungvon Annotationen. Aus den Untersuchungsergebnissen folgerte er dieNotwendigkeit einer Anpassung des Software-Designs, wobei er insbesondere dieWichtigkeit folgender Punkte herausstellte: Integration von proprietärerOffline-Standard-Software (wie z.B. Office-Anwendungen), einenicht-zentralistische Architektur sowie ein minimales Datenmodell bei maximalerInteroperabilität (z.B. W3C-Web-Annotationen).

DenAbschluss der Sektion machte Jan Horstmann (Universität Hamburg) mit seinemVortrag Undogmatisches literaturwissenschaftliches Annotieren mit CATMA:manuell, halb-automatisch und automatisiert. In diesem stellte er dasAnnotationstool CATMA (http://catma.de/) vor, das seit zehn Jahren inHamburg mit dem Ziel entwickelt wird, literaturwissenschaftliche Arbeit mitdigitalen Mitteln zu unterstützen, ohne dass vertiefte technische Fähigkeitennötig sind. Den größeren Projektkontext, in welchem CATMA verortet werden kann,bildet wiederum die Forschungsumgebung forText (https://fortext.net/). Dieses Projekt setzt sich zumZiel, Methoden der digitalen Literaturwissenschaft für traditionelleLiteraturwissenschaftler*innen zugänglich zu machen, indem neben Tools wieCATMA auch Lehrmodule und Lerneinheiten sowie Online-Ressourcen zur Verfügunggestellt werden. Horstmann betonte, dass die Mitarbeiter*innen von forTextkeinen Paradigmenwechsel von analoger zu digitaler Geisteswissenschaft fordern,sondern es um literaturwissenschaftliche Erkenntnisarbeit mit digitalen Mittelngehe. Hierbei verwies er mit Claudine Moulin darauf, dass die Annotationgenerell – die analoge wie digitale – eine kulturelle Praxis sei. Darananschließend stellte er linguistische und literaturwissenschaftliche Annotationspraxeneinander gegenüber und vermutete hier ein Problem vieler Tools, die rein an denBedürfnissen linguistischer Annotation orientiert sind. Im Anschluss an weiterebegriffliche und methodologische Überlegungen zum Annotieren stellte er CATMA „live“vor. Hierbei bewies sich, dass CATMA ein sehr robustes Online-Tool ist, mitwelchem sowohl manuelle als auch halb-automatische und vollständigautomatisierte Annotationen zügig und ohne großes technisches Vorwissenvorgenommen werden können.

SarahLang (Karl-Franzens-Universität Graz) eröffnete die dritte Sektion„Methodischer Einsatz von Annotationen“ mit ihrem Vortrag Die Allegoriae,mit welchen die Sapientes des Mysterium unserer secretae Philosophiae occultirthaben / werden uns als den offenbar / und nit mehr verborgen seyn. ZuHerausforderungen und Nutzen der digitalen Annotation alchemischer Decknamen.In ihrem Dissertationsprojekt untersucht sie alchemistische Texte mit dem Ziel,die „alchemische Sprache“ zu dekodieren. Die hierbei zu Grunde liegende Theseist, dass es ein Analogieverhältnis zwischen alchemistischen Symbolnamen undden chemischen Elementen und Prozessen gebe. Am Beispiel des „Mercurius“ machteLang die Disparatheit der hinter einzelnen Symbolnamen verborgenen Konzepten deutlich.Der zweite Teil ihres Vortrags befasste sich mit der technischen Dimensionihres Projektes. So sollen die Texte mit einem Stand-off-Thesaurus – momentannoch in SKOS (http://skos.um.es/unescothes/) kodiert – annotiert werden. DieAnforderungen an die Methode seien einerseits, dass hier ein Zugang gefundenwerden soll, der auf alle Texte übertragbar ist, und dass andererseits dennochimplizites Wissen explizit gemacht werden kann. Das Ziel sei eine möglichstkomplette Automatisierung. Die Modellierung sei dabei – angelehnt an dieÜberlegungen von Key-Note-Speaker Willard McCarty – ein iterativer Prozess, derin Langs Projekt seinen Ausgang in Michael Maiers alchemistischen Indices nimmtund von dort aus auf weitere Texte übertragen werde. Die Referentin stellteexplizit die Wahl eines Kodierungsstandards (RDFS, SKOS oder eine eigeneKodierung) zur Diskussion. Ferner wurden neben dem Problem, die Subjektivitätvon Texten auch in maschineller Verarbeitung zu erhalten, ebenfalls besondereSchwierigkeiten des Korpus wie die Vieldeutigkeit und der Vorrang sinnlicherEigenschaften vor der Bedeutung der Sprache diskutiert.

ImAnschluss stellten Lina Franken und Evelyn Gius (beide Universität Hamburg) inihrem Vortrag Annotation als Instrument der Strukturierung die Arbeitdes interdisziplinär angelegten Projektes hermA (https://www.herma.uni-hamburg.de/) vor. Gius begann dazu denVortrag mit einigen grundsätzlichen Überlegungen zur Frage: „Wie kann man aufAnnotationen schauen?“. Zur Beantwortung dieser Frage schlug sie einOrdnungssystem von verschiedenen Forschungslogiken, unterteilt in deduktive,induktive sowie abduktive, vor. Denn die Hypothesenbildung und damit dasVerhältnis von Annotation zu Daten unterscheide sich je nachdem, welcherForschungslogik man folgt. Diesen Ansatz illustrierten die beiden Referentinnenim Folgenden durch die Vorstellung zweier Teilprojekte aus dem VerbundprojekthermA. Gius stellte ihre literaturwissenschaftliche Forschung zugenderspezifischen Unterschieden in der Beschreibung von Krankheiten vor. DasUntersuchungskorpus, das als Teilkorpus des von Berenike Herrmann und GerhardLauer erstellten KOLIMO (https://kolimo.uni-goettingen.de/index.html) Prosatexte zwischen 1870 und1920 verzeichnet, wurde zunächst manuell – mit CATMA und dem Stuttgarter ToolCorefAnnotator (https://www.ims.uni‑stuttgart.de/forschung/ressourcen/werkzeuge/CorefAnnotator.html) – annotiert. Dabei wandeltesich die Forschungslogik im Laufe des Projektes von einem deduktiven Ansatz,der Regeln der Figurenanalyse appliziert, zu einem induktiven, da nun die durchdie Annotation strukturierten Daten daraufhin befragt werden, wieKrankheitskonzepte in den Textphänomenen definiert werden. Einen anderenAnsatz, nämlich einen abduktiven, verfolgt das von Franken vorgestelltekulturanthropologische Projekt zur Telemedizin. Hierbei handelt es sich um einemergentes Feld, das von kontinuierlicher Entwicklung und daraus resultierendenAushandlungsprozessen geprägt ist. Methodisch schließt das Projekt anGrounded-Theory-Ansätze an und erschließt so den Gegenstand – hier anhand vonBundestagsdebatten beispielhaft dargeboten – zunächst induktiv und versucht imAnschluss abduktiv eine Theorie aus den Daten heraus zu bilden. Der Annotation,die mit MAXQDA (https://www.maxqda.de) vorgenommen wird, kommt dabeidie Rolle der Kategorisierung und Strukturierung einerseits sowie der Filterungandererseits zu. Auch hier werden Annotation und Modellierung als iterativeProzesse verstanden.

Mitihrem Vortrag Makrogenetisches Mark-Up für Musil leiteten KatharinaGodler und Walter Fanta (beide Alpen-Adria-Universität Klagenfurt) denSektions- und damit Tagesabschluss ein. Das vorgestellte Forschungsvorhaben,dessen Ziel es ist, den Schreibprozess als denkendes Schreiben sowie alsschreibendes Denken zu verstehen, steht im Zusammenhang mit der Online-Editionvon Robert Musils „Der Mann ohne Eigenschaften“ (http://musilonline.at/). Hierzu sollen Annotationen derSpuren des Schreibprozesses im Text und nicht des Schreibprozesses selbstvorgenommen werden. Um den Nachlass Musils, der sehr viele unterschiedlicheArten von Manuskripten enthält, strukturieren zu können, schließen Godler undFanta theoretisch an die Schreibszenenkonzeption von Rüdiger Nutt-Kofoth an undunterscheiden zwischen einer Mikro-, Meso- und Makroebene der Textgenese. Sokonnten sie sechs Manuskripttypen ausmachen, die sich hinsichtlich ihreszeitlichen Bezugs zueinander, ihrer Linearität bzw. Nicht-Linearität und ihrerFunktion für den Schreibprozess unterscheiden. Die technische Herausforderungdes Projektes bestehe nun darin, die Bausteine im Schreibprozessmaschinengestützt nachvollziehbar zu machen und diese im User-Interface zuvisualisieren. Dabei könne auf ein TEI-Schema für die Mikrogenese (Streichungeneinzelner Wörter, kleinere Revisionen) zurückgegriffen werden. Mit der Frage,wie eine Annotation für die Makrogenese, die neben intertextuellen vor allemauf intratextuellen Verweisen beruht, aussehen könnte, wurde in die Diskussionübergeleitet. Als mögliche Lösung wurde eine Superstruktur vorgeschlagen, alsoeine leere Textstruktur, aus der auf die verschiedenen Zeugen, die selbsterhalten bleiben, verwiesen werden kann. Die Verweise selbst könnten dann nachTEI kodiert sein. Darüber hinaus wurde darauf hingewiesen, dass dieverschiedenen Probleme auf der Makroebene segmentiert werden können und sich sojeweils einzelne Lösungen finden ließen.

AngelikaZirkers Vortrag Challenges of Automation: Some Theoretical Considerationsabout Explanatory Annotation in Literary Studies, der die vierte Sektion„Differenzierung von Annotationsebenen“ eröffnete, fokussierte auf diehermeneutische Annotation als kontextualisierende, erklärende Hinzufügungen zueinem bestehenden Text im Sinne einer Anreicherung durch Informationen, die dasVerstehen des Textes beeinflussen. Ausgehend vom Annotationsprojekt „TübingenExplanatory Annotation System“ (TEASys – http://www.annotation.es.uni-tuebingen.de/) stellte Zirker einigetheoretische Überlegungen an, inwieweit solche hermeneutisch-erklärendenAnnotationen automatisiert werden können. Dabei zeigte sie besonders diemöglichen Herausforderungen und Grenzen der automatischen Annotation auf,welche sie anhand einiger exemplarischer Problemfelder darstellte. Das ersteFeld betraf das generelle Problem der Ambiguitätserkennung, welches bei einerautomatischen Annotation im Besonderen evident werde. Ambiguitäten könnenbeispielsweise disambiguiert werden, wodurch etwa die besondere Qualität desliterarischen Werks außer Acht gelassen werden könne. Dass Ambiguitäten oftabhängig von der Gesamtinterpretation eines Textes sind, führte zum zweitenProblemfeld, der Verankerung von Annotationen im Text und das Verhältnis vonTextteil und Textganzem. Hier bestehe die hermeneutische Herausforderung in derAnnotation von (metaphorischen) Bedeutungen, die lokal im Wechselspiel mit demGesamttext stehen. Fraglich sei, wo derartige Annotationen vorzunehmen seien.Diese Frage stelle sich auch besonders für formale Aspekte, die von einembestimmten Muster abweichen. Ein weiteres Problemfeld bezog sich aufintertextuelle Verweise sowie ein letztes auf die Frage nach individuellenLeserbedürfnissen: Für wen werden die jeweiligen Annotationen verfasst? InTEASys wurden für derartige Probleme drei verschiedene Komplexitätsebeneneingeführt, welche neben Basisinformationen für das Verstehen des Textesschließlich auch komplexere Informationen bis hin zu Diskussionen derSekundärliteratur enthalten. Die genannten Herausforderungen und möglichecomputerphilologische Lösungen zeigte Zirker schließlich anhand einigerbeispielhafter literarischer Textstellen auf.

Derdarauf folgenden Vortrag von Tamara Drummond und Janina Wildfeuer (beideUniversität Bremen) The Multimodal Annotation of TV Series. Combiningqualitative questions and quantitative results veranschaulichte dieMöglichkeit der Verbindung von qualitativen und quantitativen Ansätzen für dieAnalyse von audiovisuellen Daten. Dabei zeigten die Referentinnen auf, wie sichdas Annotationstool ELAN (https://tla.mpi.nl/tools/tla-tools/elan) für die semantische Analyse dermultimodalen Darstellung geschlechtsspezifischer Unterschiede in TV-Serienfruchtbar machen lässt. Hierzu wurden die Ergebnisse eines empirischenMasterarbeitsprojekts zu den Anfangssequenzen zeitgenössischer TV-Serienpräsentiert, in welchen jeweils Teams von weiblichen und männlichenHauptfiguren eingeführt werden. Anhand des Materials ließ sich die Konstruktionbestimmter geschlechtsspezifische Unterschiede feststellen, die mit einemmultimodalen Rahmen analysiert werden können. In diesem Zusammenhang ergabensich sowohl theoretische als auch methodologische Fragen zur multimodalenAnalyse und Annotation von TV-Serien. Der von Drummond und Wildfeuer verwendetesystemisch-funktionale Ansatz ermögliche es, die Interaktionstypen weiblicherund männlicher Hauptpersonen mit anderen Charakteren während ihrer Einführungin die Serie zu analysieren. Annotationen auf jeweils separaten Ebenen lassendabei multiple Fragestellungen zu. Abschließend wurden die verwendetenanalytischen Einheiten anhand der TV-Serie „Blindshot“ und ihrerHauptcharaktere im Hinblick auf geschlechtsspezifische Unterschiede in derInszenierung der Charaktere präsentiert (z.B. Toneinstellungen, Kamerawinkelund Zoom-Einstellungen).

Esfolgte Christian Lücks (FernUniversität in Hagen) Vortrag Beispieleannotieren: Manuelle Annotationen im Spannungsfeld zwischen Interpretation,formalem Schema und maschineller Auswertung. Dieser stellte dieAnnotationspraxis im DFG-Projekt „Das Beispiel im Wissen der Ästhetik(1750-1850). Erforschung und Archivierung einer diskursiven Praxis“ (http://gepris.dfg.de/gepris/projekt/327259109) vor, in welchem Beispiele inTexten der philosophischen Ästhetik annotiert werden. Zur Erfassung vonBeispielen lassen sich gängige Standardabkürzungen wie „z.B.“ oder „e.g.“ alsMarker verwenden, aber auch syntaktische sowie vielfältige semantischeMerkmale. Geplant sind digitale Annotationen als externes Markup zuQuelldokumenten, welche in einem Standardformat, etwa TEI-XML, vorliegen. Solassen sich Annotationen kollaborativ herstellen und Kontrollannotationendesselben Texts durch einen weiteren Annotator realisieren. Perspektivisch solljedoch an einer automatisierten Annotation von Beispielen gearbeitet werden.Hierfür müsse man jedoch computerlinguistisch erzeugte Daten wieSegmentierungen in Token und Sentences, grammatische Grundformen,Part-Of-Speech-Tags oder Tree-Banks, wie sie vom WebLicht-Service (https://weblicht.sfs.uni-tuebingen.de/WaaS/)oder von NLP-Bibliotheken fürEingabedokumente zurückgeliefert werden, auswerten. Dabei werden technischeProbleme virulent, etwa die Frage, wie man die unterschiedlichen Typen vonMarkup aufeinander bezieht. Doch auch für die manuelle Annotationspraxis habenÜberlegungen, welche Art von Beispielen überhaupt durch einen Algorithmuserfasst werden können, Auswirkungen. Auf diese Weise ergeben sich Spannungen ineinem Dreieck aus interpretativer Arbeit am philosophischen Text,Ausdrucksmächtigkeit des Annotationsschemas und künftigem Algorithmus.

Mitihrem Vortrag Facilitating reusable third-party annotations in the digitaledition eröffneten Peter Boot und Marijn Koolen die letzte Sektion derTagung „Annotation und Ontologie“ und diskutierten zum einen den Umgang mit derAnnotationen von Dritten. Im Fokus standen dabei Anmerkungen zu einer digitalenEdition, die von Forscher*innen gemacht wurde, die selbst nicht an demEditionsprojekt beteiligt gewesen sind. Diese Anmerkungen fungieren alsBeiträge zu den auf der Website bereits vorhandenen Erklärungsmaterialien. Zumanderen wurde die technische Frage behandelt, wie sich solche Annotationen aneinem bestimmten Ort in der digitalen Ausgabe leichter verankern lassen. DieAnnotation soll sich dabei für die verschiedenen Komponenten der digitalenEdition (z.B. Scan des Originals, Transkript, edierter Text) realisieren lassenund in unterschiedlichen Versionen (bspw. auch Übersetzungen) fest verankertbleiben. RDFa biete hier eine geeignete Technologie zum Einbetten dererforderlichen Informationen in die HTML-Seiten der Edition. Boot und Koolenstellten einen Open-Source-Prototyp eines Annotations-Tools vor, das in denkommenden Jahren für den Einsatz in mehreren Bereichen in der niederländischenInfrastruktur CLARIAH (Common Lab Research Infrastructure for the Arts andHumanities – https://www.clariah.nl/) entwickelt werden soll.Mithilfe dieses Tools wurde eine Ausgabe der Briefe von Vincent van Goghvorgestellt. Die Edition der Briefe verfügt dabei über vier Darstellungsmodides Objektes: eine zeilenweise (diplomatische) Transkription, ein laufender (kritischer)Text, eine Übersetzung ins Englische sowie ein Faksimile. Die Annotationenkönnen entweder in allen Darstellungsmodi oder nur in einem bestimmtenangezeigt werden. Außerdem ist eine Unterscheidung von privaten, mit bestimmtenNutzer*innen geteilten sowie öffentlichen Annotationen möglich. Abschließendwurden die potenziellen Auswirkungen derartiger Annotationen von Dritten aufdie Praxis der Geisteswissenschaften diskutiert. So biete etwa die Möglichkeit,Anmerkungen verschiedener Art digital zu erstellen, zu organisieren undauszutauschen, leichten Zugang zu den Interpretationen anderer Forscher*innen.

DenAbschluss der Sektion bildete Evelyn Gius’ (Universität Würzburg) und NilsReiters (Universität Stuttgart) Vortrag zu Shared Tasks zur Entwicklung vonAnnotationsrichtlinien in den Digital Humanities. Bei einem Shared Taskbefassen sich mehrere Teams mit der Lösung derselben Aufgabe. Nach derArbeitsphase werden die Resultate aller Teams verglichen und ausgewertet.Derartige Shared Tasks sollen sich laut den Vortragenden insbesondere dann alsVerfahren für die Digital Humanities anbieten, wenn computergestützte Verfahrenauf geisteswissenschaftliche Konzepte treffen und diese in einemintersubjektiven Aushandlungsprozess operationalisiert werden sollen. Der hiervorgestellte Shared Task bestand in der Erstellung einer Guideline für dieAnnotation von Erzählebenen (wie Rahmen- und Binnenerzählungen etc.) mit demZiel, eine solche Annotation später automatisieren zu können. Acht Teamsbeteiligten sich an diesem kompetitiven Verfahren. In einem Workshop wurden dieVorschläge entlang eines Sets von drei Kriterien – konzeptionelleAngemessenheit, Anwendbarkeit sowie Benutzbarkeit – miteinander verglichen. Ausdiesen drei Kriterien ergebe sich allerdings ein Trilemma: Man könne keine derdrei Dimensionen optimieren, ohne zumindest eine der anderen zu verschlechtern.Daraus folgte für die Bewertung der Vorschläge, dass über einen Fragebogen undAnnotationstestläufe sowie mittels eines speziellen Bepunktungssystems derSieger ermittelt wurde. Reiter wies noch einmal nachdrücklich darauf hin, dassbei solch komplexeren Konzepten häufig die Fehleinschätzung vorherrsche, diesemüssen für den Computer vereinfacht werden. Doch Computer seien nicht dasProblem, sondern die Übereinstimmung der Forscher*innen sowie die Verfügbarkeitvon annotierten Daten, an denen die Computer trainiert werden können.

Inder von Julia Nantke und Frederik Schlupkothen geleiteten Abschlussdiskussionließen die Teilnehmer*innen der Konferenz alle Vorträge noch einmal Revuepassieren. So hatte es sowohl Makro- als auch Mikroperspektiven aufAnnotationen gegeben und der Fokus war dabei manchmal auf die Nutzer*innen,manchmal auf die Annotator*innen gelegt worden. Die sektionenübergreifendaufgeworfene Frage danach, wie viel Interpretation in einer Annotation stecke,wurde ebenso resümiert wie die Frage nach dem Status von Annotationen als Datenim Sinne eines analytischen Mittels. Künftig ist außerdem ein Tagungsbandgeplant, welcher die einzelnen Beiträge noch einmal jeweils in Aufsatzformgebündelt präsentieren soll. Im Hinblick darauf diskutierte man abschließend,wie sich eine interaktive Annotationspraxis im Rahmen einer derartigenPublikation fruchtbar machen ließe, was in Anbetracht der sichweiterentwickelnden Möglichkeiten (digitaler) wissenschaftlicher Publikationenfreilich keineswegs Spekulation bleiben muss.