Digitales Journal für Philologie
Einleitung: Digitale Verfahren in der Literaturwissenschaft
Die digitale Transformation der Literaturwissenschaft ist keine Novität mehr, in vielen Bereichen hat sie längst stattgefunden, auf der organisatorischen und der Arbeitsebene, sowohl strukturell als auch methodisch. Auch vor diesem ›digital turn‹ zeichnete sich literaturwissenschaftliches Forschen durch eine große Vielfalt an Verfahren aus, sei es bei der Edition, Analyse, Interpretation, Theoriebildung oder der Diskussion von Rezeptions- und Produktionsmechanismen. Gerade in der Tatsache, dass digitale Verfahren sich in allen diesen unterschiedlichen Bereichen etabliert haben, sehen wir eine Möglichkeit, einen methodisch orientierten Dialog zu eröffnen und die häufig getrennt voneinander operierenden Bereiche mit einem Fokus auf die digitalen Aspekte zu verbinden. Von unserer Ausschreibung haben sich demnach ganz verschiedene Forscher*innengruppen angezogen gefühlt, von ausgewiesenen Digital Humanists bis zu Wissenschaftler*innen, für die digitale Gegenstände und Verfahren bisher womöglich eher eine Nebenrolle in ihrer Arbeit gespielt haben oder die mitunter vielleicht erst beginnen, sich mit deren Möglichkeiten und Grenzen auseinanderzusetzen. Diese Breite abzubilden, Brücken zwischen verschiedenen Ansätzen zu bauen und dadurch Diskussionen durchlässiger zu gestalten, war Aufgabe und Herausforderung unserer Herausgeberschaft.
Auf die Polysemie des Begriffs ›Digital Humanities‹ ist vielfach hingewiesen worden. Camille Roth hat drei mögliche Bedeutungen beschrieben: Geht es den »digitized humanities« um den Aufbau, die Verwaltung und Verarbeitung digitalisierter Archive, entwickeln die »numerical humanities« mathematische Abstraktionen geisteswissenschaftlicher Inhalte sowie formale Modelle. Die »humanities of the digital« schließlich untersuchen Online-Kommunikation und -Communitys bzw. allgemein Inhalte, die born-digital sind.1
Bezogen auf die Literaturwissenschaft lässt sich die Unterscheidung digitized versus numerical schon länger beobachten. Wenn es nicht um digitale Editorik bzw. die Verfügbarmachung von Archivalien über das Internet geht, sondern um den mathematisch-algorithmischen Umgang mit literaturwissenschaftlich relevanten Daten, so ist inzwischen nicht mehr von ›Digital Literary Studies‹, sondern von ›Computational Literary Studies‹ die Rede. Vielleicht nicht ganz zufällig erschien von dem prominent angekündigten Journal Digital Literary Studies, begründet von James O’Sullivan, im Jahr 2016 nur eine einzige der vierteljährlich geplanten Ausgaben.2 Wenn man sich heute die Förderlandschaft ansieht, dominieren statt den DLS die CLS: So trägt etwa das DFG-Schwerpunktprogramm 2207 den Titel »Computational Literary Studies«,3 aber auch das innerhalb des EU-Rahmenprogramms Horizon 2020 geförderte paneuropäische Projekt »CLS INFRA« baut auf diese Denomination.4 Mit dem neu begründeten Journal of Computational Literary Studies, herausgegeben von Evelyn Gius, Christof Schöch und Peer Trilcke, verfestigt sich der Terminus weiter.5
Roth hat darauf hingewiesen, dass es sich bei den drei Ausprägungen der Digital Humanities um verschiedene erkenntnistheoretische Bestrebungen von sich nicht unbedingt überlappenden wissenschaftlichen Communitys handelt. Nicht nur in unserem Sonderband zeigt sich indes, dass die Übergänge fließend sind. Die einzelnen Beiträge des vorliegenden Bandes lassen sich drei Teilbereichen zuordnen – »Digitale Edition«, »Computationelle Methoden« und »Digitales Lesen und Social Media« –, die der von Roth beschriebenen Trichotomie entsprechen. Mit letzterem Teilbereich gelangen nun auch die »humanities of the digital« mit ins Bild.
Für jeden dieser drei Bereiche lassen sich eine Vielzahl von Leitfragen formulieren, die das breite Spektrum des Erkenntnisinteresses der einzelnen Ansätze und vorgestellten Projekte widerspiegeln. Im Bereich der digitalen Edition sind es sowohl die Dimensionen der Übertragbarkeit des kulturellen Erbes in eine digitale Umgebung, die Erweiterung von Möglichkeiten traditioneller editorischer An- und Grundsätze als auch nicht zuletzt die antizipierte Anschlussfähigkeit der zu erschaffenden digitalen Edition und damit die Betonung der Dynamik von Forschungsprozessen sowie der Interoperabilität von Erschließungs-, Explorations- und Analyseanwendungen. Im Hintergrund stehen hier Fragen nach den Unterschieden und Überlappungen von literarischen und literaturwissenschaftlichen Daten, die im Digitalen auch technisch so eng zusammenrücken, dass eine erhöhte Durchlässigkeit besteht. Die gesteigerte Anschlussfähigkeit durch standardisierte Erschließungsformate betont ebenfalls die interdisziplinäre Ausrichtung der Literaturwissenschaft bereits im Bereich der »digitized humanities«, wenn Editionen etwa mithilfe von in der Korpuslinguistik entwickelten Methoden wie beispielsweise des Part-of-Speech-Taggings oder der Named Entity Recognition angereichert oder Artefakte in Graphstrukturen als Teil des Semantic Web digital modelliert werden, wodurch wiederum Möglichkeiten der Verknüpfung und Netzwerkbildung eröffnet werden. Kulturelle Artefakte mögen dadurch einerseits ihren Unikatstatus teilweise einbüßen, andererseits erhält ihr jeweiliger Verweischarakter, die Einbettung in ein kulturelles Netz der gegenseitigen Bezugnahme, erst die ihr zustehende Aufmerksamkeit und wissenschaftlich tradierbare Relevanz. Netzwerke sind schließlich eine naheliegende und gern genutzte, indes nur eine von vielen Möglichkeiten, die aufeinander bezogenen Editionsdaten visuell darzustellen und erforschbar zu machen. Zur unumgänglichen data literacy tritt damit bereits im Bereich der »digitized humanities« eine notwendige visual literacy. Die Beiträge von Sandra Boto sowie von Julia Nantke, Sandra Bläß und Marie Flüh besprechen im Bereich der digitalen Edition zwei beispielhafte Ansätze digitaler Verfahren.
Sandra Boto stellt in ihrem Beitrag »Combining Digital Scholarly Edition with Heritage Literature Representations: Learning from Garrettonline’s Experience« das Editionsprojekt Garrettonline vor, im Zuge dessen der Romanceiro digital ediert wird. Es handelt sich um die von Almeida Garrett (1799–1854) zusammengetragene erste große Sammlung portugiesischer Volksdichtungen, die für die literarische Romantik des südeuropäischen Landes wegweisend war. Garrettonline ist allerdings keines der vielen Projekte, die lediglich vorhandene (Erst-)drucke digital formatiert zur Verfügung stellen. Das Ziel ist vielmehr, das spannungsreiche Verhältnis zwischen mündlicher Tradierung und schriftstellerischer Fixierung editorisch offenzulegen. Dem kommt ein großer Manuskriptfund aus dem Jahr 2004 entgegen, mehrere hundert Blätter aus Garretts Feder, die auch ein neues Licht auf den Romanceiro werfen. Im Editionsplan ursprünglich auf fünf Bände angelegt, konnte Garrett zu Lebzeiten nur drei Bände veröffentlichen. Dem Projekt geht es nun unter anderem um die Konstituierung eines would-be-texts, der wieder zurück zur mündlichen Überlieferung führt und zur Komplettierung der fünf Bände im digitalen Raum. Neben der technischen Umsetzung – Kodierung im Standard TEI P5 und Präsentation im Web mittels der in Italien entwickelten neuesten Version der Edition Visualization Technology (EVT 2) – reflektiert Sandra Boto in ihrem Artikel kritisch die Möglichkeiten digitaler Editionen, etwa die integrale Repräsentation verschiedener Textzeugen; diese führe letztlich zu einer »reformulation of the notion of what a text can be«.
Julia Nantke, Sandra Bläß und Marie Flüh zeigen in ihrem Beitrag »Literatur als Praxis: Neue Perspektiven auf Brief-Korrespondenzen durch digitale Verfahren« anhand des Projektes Dehmel digital, wie die Edition eines umfangreichen Briefnachlasses mit Konzentration auf das Korrespondenznetzwerk statt auf die detailgetreue Erfassung von Einzelbriefen gelingen kann. Der an der Staatsbibliothek Hamburg aufbewahrte Briefnachlass des um 1900 hochpopulären und kulturell-künstlerisch überaus gut vernetzten Autors Richard Dehmel und seiner Frau Ida umfasst ca. 35.000 Briefe, die mithilfe maschineller Lernmethoden halbautomatisch transkribiert und annotiert werden, um sie aus einer Überblicksperspektive als polyphones Netzwerk analysieren zu können. Der praxeologische Beitrag macht mit seinem Fokus auf kollaborative Werkgeneseprozesse und Projektplanungen sowie kulturpolitisch motivierte Netzwerkaktivitäten deutlich, dass literarische Texte, das literarische Leben und damit auch Literaturgeschichte immer als Vielklang unterschiedlicher und häufig abseits des tradierten literarischen Kanons stehender Stimmen zu verstehen und zu deuten sind.
Von computationellen Methoden wird mitunter erwartet, dass sie zwischen hermeneutisch orientierten Fragestellungen an geisteswissenschaftliche Gegenstände und den aus dem natur-, mathematik- bzw. informationswissenschaftlichen Bereich stammenden Methoden der sogenannten exakten Wissenschaften, den hard sciences, vermitteln. Mit Jan Christoph Meister lässt sich hierbei fragen, ob ein quantitativ belegter Konsens überhaupt erstrebenswert ist, in den mehr auf Plausibilität statt auf die eine wahre Interpretation ihrer Untersuchungsgegenstände ausgerichteten und per Definition zirkulären, das heißt von ihrem jeweiligen raumzeitlichen Kontext abhängigen geisteswissenschaftlichen Forschungsprozessen. Anders ausgedrückt kann es auch in der computationellen Literaturwissenschaft »nicht darum gehen, dem Menschen seine natürlichsprachliche Intelligenz und seine Lust an der Uneindeutigkeit auszutreiben und Literaturwissenschaftler auf eine restringierte Kommunikation in Einsen und Nullen zu verpflichten«.6 Bei allen hier versammelten Ansätzen – die freilich wiederum nur Ausschnitte aus dem Spektrum computationell-literaturwissenschaftlicher Forschungsmethoden präsentieren – stehen daher im Hintergrund Fragen nach der Relation von quantitativ-numerischen Analysemethoden und hermeneutischem Erkenntnisinteresse. Die Operationalisierung literaturwissenschaftlicher Fragestellungen geht auf der einen Seite nicht selten mit einer Dekontextualisierung einzelner Textelemente einher. Auf der anderen Seite bieten gerade statistische Aussagen über Texte und Textkorpora die Möglichkeit, andere Zusammenhänge zu sehen, die bei einer herkömmlichen linear-sukzessiven Lektüre der Texte nicht augenfällig würden. Wie weit computationelle Ansätze dann jeweils kommen und ob sie die motivierende literaturwissenschaftliche Fragestellung schlussendlich zu beantworten helfen oder doch eher auf neue Zusammenhänge und Problemstellungen aufmerksam machen, muss im Zuge der Reflexion digitaler Verfahren in der Literaturwissenschaft ebenfalls kritisch reflektiert und theoretisch fundiert werden. Die vier folgenden Beiträge repräsentieren im vorliegenden Band beispielhaft den Bereich der computationellen Methoden:
Für ihren Beitrag »On the Distance Between Traditional and DH-Based Genre Theory« haben Benjamin Gittel und Tilmann Köppe zwei zentrale Aufsätze aus dem Bereich des Distant Reading einer kritischen Lektüre unterzogen: Andrew Pipers »Fictionality« und Ted Underwoods »The Life Cycles of Genres«, beide 2016 erschienen im Journal of Cultural Analytics.7 Gittels und Köppes Hauptaugenmerk liegt dabei nicht primär auf den verwendeten Algorithmen, sondern auf der Bedeutung der Ergebnisse für klassische literaturwissenschaftliche Fragestellungen. Ihr Beitrag ist einer der wenigen Vermittlungsversuche zwischen digitalen und ›traditionellen‹ Ansätzen, deren epistemische Ausgangslagen häufig als inkompatibel wahrgenommen werden. Die Autoren gehen dabei (anders als beispielsweise Nan Z. Da in ihrer breit diskutierten Generalkritik)8 nicht polemisch vor, sondern lassen sich durch ein genuines Interesse an digitalen Verfahren und ihrem epistemischen Potential leiten. Gittel und Köppe zeigen, dass (bislang) weder Piper noch Underwood mit ihren Studien zufriedenstellende Antworten auf genretheoretische Fragestellungen liefern können und bestätigen damit Underwoods kritische Einschätzung gegenüber seinen eigenen Modellierungsversuchen: »turning these models into fully satisfying stories could take several more decades«.9 Die Autoren zeigen exemplarisch, dass computationelle Verfahren häufig nicht traditionelle Fragen der Literaturwissenschaft beantworten – auch wenn dies als eigentliches Ziel gesetzt war –, sondern dass sie vielmehr etablierte Forschungsdiskurse um weitere Fragemöglichkeiten ergänzen.
In ihrem Werkstattbericht »Mehrsprachige Lyrik kodieren. Kodieren mit Analysesoftware als Methode der (digitalen) literaturwissenschaftlichen Korpusanalyse« bespricht Erika Unterpertinger die Annotation und Analyse eines Korpus von 150 mehrsprachigen lyrischen Texten aus der Region Bozen-Südtirol, die zwischen 1990 und 2017 erschienen. Zum Einsatz kam dabei das Korpusanalysetool ATLAS.ti. Sie verfolgt das Ziel, einen tiefergehenden Einblick in Verfahren und Formenvielfalt mehrsprachiger Lyrik zu gewähren. Die stark ineinander verschränkten Verfahren der Mehrsprachigkeit im lyrischen Korpus können mithilfe von Netzwerken visualisiert werden, die neue Perspektiven auf den Untersuchungsgegenstand ermöglichen, indem sie zum Beispiel Zusammenhänge von kritischer Metalyrik und Mehrsprachigkeit verdeutlichen. Unterpertingers Ansatz importiert einerseits sozialwissenschaftliche Methoden der Korpusannotation in den literaturwissenschaftlichen Dialog und bietet andererseits Anknüpfungspunkte für die Diskussion um Kategoriensysteme zur Annotation und Analyse von Mehrsprachigkeit.
Im Beitrag von Itay Marienberg-Milikowsky, Dan Vilenchik, Noam Krohn, Kobi Kenzi und Ronen Portnikh – »An Experimental Undogmatic Modelling of (Hebrew) Literature: Philology, Literary Theory, and Computational Methods« – begegnen sich Mathematik und Literatur. Die quantitative Operationalisierung literaturwissenschaftlicher Konzepte bringt philologische Praxis und Literaturtheorie einander näher. Das interdisziplinäre Forschungsteam betont, dass Messbarkeit kein hinreichendes Kriterium für digitale literaturwissenschaftliche Verfahren sei, da in Interpretationsprozessen der Text häufig als kommunikatives (und nicht als informatives) Phänomen konzipiert werde. Viele DH-Tools erfordern von Literaturwissenschaftler*innen hingegen eine Zusammenarbeit mit Computerwissenschaftler*innen, um bedient werden zu können und führen zu einer Entfremdung (defamiliarization) vom Untersuchungsgegenstand und von der angewandten Methode. Die Autoren untersuchen und vergleichen beispielhaft Figurenbeziehungen in zwei hebräischen Korpora mit Texten der israelischen Autoren Amoz Oz und Aharon Appelfeld sowie in den englischen Übersetzungen dieser Textkorpora. Mit Bezug zur Methode des word embeddings schlagen sie ein undogmatisches Modellieren vor, bei dem unterschiedliche partielle Modellierungen von Text(aspekt)en verglichen und Abweichungen automatisch hervorgehoben werden. Das vom Team entwickelte Tool TEASER konzeptualisiert dieses Vorgehen. Marienberg-Milikowsky et al. geben Denkanstöße für die Verbindung zwischen Worten und Zahlen und betonen, dass die Schlussfolgerungen, die aus dieser Verbindung gezogen werden können, eine Sache der menschlichen Interpretation bleiben.
Der Artikel »Von der literaturwissenschaftlichen Theorie zur maschinellen Erkennung: Operationalisierung von Raumentitäten und Settings« von Florian Barth liefert eine umfassende Operationalisierung literaturwissenschaftlich tradierter narratologischer Raumbegriffe sowie eine Klassifizierung der daraus abgeleiteten räumlichen Entitäten nach ihrer jeweiligen Handlungsrelevanz. Er konstatiert im Hinblick auf zwei zentrale raumnarratologische Studien, dass es bislang weder für Katrin Dennerleins noch für Barbara Piattis Raumbegriff ein Verfahren zur automatischen Erkennung gibt. In Anlehnung an Dennerlein fragt Barth, welche Aspekte der räumlichen Repräsentation für eine rechnerisch modellierbare Entität relevant sind. Neben der Identifizierung räumlicher Entitäten wird mit Bezug auf Piatti eine Einteilung in die Kategorien Handlungsraum (Setting) und Erwähnungsraum (Mention) vorgenommen. Barths Beitrag stellt eine Pilot-Annotation vor, die anhand von fünf Texten aus dem Deutschen Romankorpus (DROC) vorgenommen wurde, und unterstreicht dabei nicht zuletzt die Bedeutung von Erzählebenen für die Annotation literarischer Räume.
Aber auch ganz grundsätzliche literaturwissenschaftliche Tätigkeiten wie das Lesen, Diskutieren und Vermitteln von Literatur erfahren eine digitale Transformation durch die verstärkten Möglichkeiten des direkten Verweisens und (De-)Kontextualisierens in digitalen Medien. Klassische Lese- wie Vermittlungstheorien müssen vor dem Hintergrund dieser veränderten Bedingungen neu evaluiert und erweitert werden. Nicht nur die Frage, wie Literatur rezipiert wird – ob chronologisch, als Hypertext oder zeitlich vorgegeben durch Darstellungs- und Distributionsmechanismen –, ist von literaturwissenschaftlichem Interesse, sondern auch, wie Verfahren der Diskussion und Vermittlung literaturwissenschaftlichen Wissens digital überformt und dadurch transparenter, anschlussfähiger, aber vielleicht auch ungeschützter gemacht werden können, da sie die Grenzen eines universitären Seminars überschreiten. Welche Rolle spielen digitale Privatheit (z.B. in Messengern) und Öffentlichkeit (z.B. in Social Media) in der grundsätzlichen literaturwissenschaftlichen Lehre wie auch bei der Vermittlung digitaler Verfahren? Die Beiträge von Berg und Wilke geben Einblicke in die Diskussionen im Bereich des digitalen Lesens und der Literaturwissenschaft in und mit Social Media.
Gunhild Berg bespricht in ihrem Beitrag »#Literaturvermittlung in und mit Social Media. Digitale Verfahren der Literatur-Wissenschaftskommunikation in Angewandter Literaturwissenschaft und Literaturdidaktik« Möglichkeiten der digitalen Literaturrezeption und -vermittlung. Genuin digitale wie digitalisierte Literatur wird in einer großen Vielfalt über Social Media verbreitet, diskutiert und analysiert. Entstandene Netzliteratur-Gattungen sind etwa die sogenannte ›Twitteratur‹ sowie Instagram- und TikTok-Storys etc. Als Lehr- und Lernorte werden sie in universitären Seminaren auch methodisch zur Vermittlung literaturwissenschaftlichen Wissens eingesetzt. Berg hebt hervor, dass es aufgrund des inhärenten Vermittlungsaspektes von sozialen Netzwerken didaktisch konsequent sei, sie auch kommunikativ in vermittelnde Lehrformate zu integrieren. Die Multiplikation von Kommunikation in sozialen Netzwerken durch das Beantworten oder Teilen von Inhalten kann seminarexterne und -übergreifende Wahrnehmung erzeugen und damit etwa auch Rückmeldung und Wertschätzung für Schreibübungen literarischer und literaturwissenschaftlicher Art liefern. Berg betont, dass durch digital vernetzte Strukturen nicht zuletzt die von der Literaturwissenschaft systematisierte Trennung von Autor*innen- und Leser*innenschaft herausgefordert werde.
Schließlich analysiert Franziska Wilke in »The Digital Reading Practice Between Content-Related Involvement and Playful Immersion. Proposing a Literature and Media Theory-based Praxeology of Reading« digitale Narrative mit Rückgriff auf Rezeptionstheoreme (von Wolfgang Iser), die über viele Jahre an nicht-digitalen Texten entwickelt wurden. Sie beschreibt dabei die Infrastruktur eines (digitalen) Texts als die Gesamtheit von typografischer Gestaltung, medialer Ebenenstruktur und den Handlungsoptionen des Lesers bzw. der Leserin (agency) im Text. Wilke stellt sechs Lesemodi ihrer eigenen Lesetypologie näher vor (die insgesamt aus 13 Modi besteht). Als Beispiele für multimediales Lesen analysiert Wilke Die Aaleskorte der Ölig (1998) von Frank Klötgen und Dirk Günther und Der Trost der Bilder (1998) von Jürgen Daiber und Jochen Metzger – zwei experimentelle Multimediatexte, bei denen die spielerische Immersion im Vordergrund steht. Technische Verflechtung sowie eine multimediale Einbettung und Portionierung von Textteilen sind dabei Teil des literarischen Konzepts. Schließlich behandelt sie Tilman Rammstedts Morgen mehr (2016) – eine Erzählung, die man portioniert als E‑Mails oder Messenger-Mitteilungen rezipieren kann – als Beispiel für ein lineares Lesen und eine inhaltsbezogene Beteiligung an multimedialen Lesegeräten.
Die Beiträge des vorliegenden Bandes zeigen einmal mehr, dass es nicht sinnvoll ist, von einer tradierten Literaturwissenschaft einerseits und einer exklusiven digitalen Variante andererseits zu sprechen. Patrick Sahles erstmals 2013 veröffentlichtes 3-Sphären-Modell, das in immer wieder aktualisierten Versionen die fachspezifischen Spielarten der Digital Humanities zu kartieren versucht, hat zwischen den Digital Humanities als zentraler Sphäre und den Literaturwissenschaften als Teil der äußeren Sphäre die digitalen bzw. computationellen Literaturwissenschaften platziert.10
Die literaturwissenschaftliche Praxis zeigt, dass sich diese mittlere Sphäre seit 2013 bedeutend gefüllt und diversifiziert hat und dass sich digitale Verfahren auch da etabliert haben, wo man gar nicht vorderhand von Digital Humanities sprechen würde. Dass sich dieser Umstand auch in diesem Sonderband manifestiert, liegt an den vielen Beiträger*innen, denen wir für die gute Zusammenarbeit ebenso danken möchten wie den Reviewer*innen, namentlich (und in alphabetischer Reihenfolge): Philipp Böttcher, Johannes Franzen, Frederike Neuber, Antonio Rojas Castro, Jan Rybicki, Mareike Schumacher, Michael Vauth, Thomas Weitin und Simone Winko. Das offene Peer-Review-Verfahren hat bei der allmählichen Entstehung des Bandes zu vielen ergiebigen Diskussionen geführt. Großer Dank gilt auch den vielen Redaktionsmitgliedern, die uns bei der Arbeit an dem Band stets schnell und zuverlässig auf allen Ebenen unterstützt haben.
Literaturverzeichnis
DA, Nan Z.: »The Computational Case against Computational Literary Studies«. In: Critical Inquiry 45.3 (2019), S. 601–639. DOI: https://doi.org/10.1086/702594.
MEISTER, Jan Christoph: »Computerphilologie vs. ›Digital Text Studies‹«. In: Christine Grond-Rigler u. Wolfgang Straub (Hg.): Literatur und Digitalisierung. Berlin, Boston 2013, S. 267–296.
PIPER, Andrew: »Fictionality«. In: Journal of Cultural Analytics 2.2 (2017). DOI: https://doi.org/10.22148/16.011.
ROTH, Camille: »Digital, Digitized, and Numerical Humanities«. In: Digital Scholarship in the Humanities 34.3 (2019), S. 616–632. DOI: https://doi.org/10.1093/llc/fqy057.
SAHLE, Patrick: »Digital Humanities? Gibt’s doch gar nicht!« In: Constanze Baum u. Thomas Stäcker (Hg.): Grenzen und Möglichkeiten der Digital Humanities (Sonderband der Zeitschrift für digitale Geisteswissenschaften 1). Wolfenbüttel 2015. DOI: https://doi.org/10.17175/sb001_004.
UNDERWOOD, Ted: »The Life Cycles of Genres«. In: Journal of Cultural Analytics (2016). DOI: https://doi.org/10.22148/16.005.
UNDERWOOD, Ted: Distant Horizons. Digital Evidence and Literary Change. Chicago 2019.
- 1. Camille Roth: »Digital, Digitized, and Numerical Humanities«. In: Digital Scholarship in the Humanities 34.3 (2019), S. 616–632, hier S. 616. DOI: https://doi.org/10.1093/llc/fqy057.
- 2. Vgl. https://journals.psu.edu/dls (zuletzt eingesehen am 7. April 2022).
- 3. Vgl. https://dfg-spp-cls.github.io/ (zuletzt eingesehen am 7. April 2022).
- 4. Vgl. https://cordis.europa.eu/project/id/101004984 (zuletzt eingesehen am 7. April 2022).
- 5. Vgl. https://jcls.io/ (zuletzt eingesehen am 7. April 2022).
- 6. Jan Christoph Meister: »Computerphilologie vs. ›Digital Text Studies‹«. In: Christine Grond-Rigler u. Wolfgang Straub (Hg.): Literatur und Digitalisierung. Berlin, Boston 2013, S. 267–296, hier S. 295.
- 7. Vgl. Andrew Piper: »Fictionality«. In: Journal of Cultural Analytics 2.2 (2017). DOI: https://doi.org/10.22148/16.011 und Ted Underwood: »The Life Cycles of Genres«. Journal of Cultural Analytics 2.2 (2017). DOI: https://doi.org/10.22148/16.005.
- 8. Nan Z. Da:»The Computational Case against Computational Literary Studies«. In: Critical Inquiry 45.3 (2019), S. 601–639. DOI: https://doi.org/10.1086/702594.
- 9. Ted Underwood: Distant Horizons. Digital Evidence and Literary Change. Chicago 2019, S. 109.
- 10. Vgl. Patrick Sahle: »Digital Humanities? Gibt’s doch gar nicht!« In: Constanze Baum u. Thomas Stäcker (Hg.): Grenzen und Möglichkeiten der Digital Humanities (Sonderband der Zeitschrift für digitale Geisteswissenschaften 1). Wolfenbüttel 2015, S. 6. DOI: https://doi.org/10.17175/sb001_004.
Kommentar hinzufügen