Digital Journal for Philology
Generative Literatur
Mit generativer Literatur nimmt diese Sonderausgabe Textexperimente in den Blick, die entweder überwiegend mithilfe generativer Künstlicher Intelligenz (GenAI) entstanden oder aber algorithmenbasiert sind. Inzentiv für diesen besonderen Schwerpunkt sind die wachsende Prominenz generativer literarischer Verfahren einerseits sowie die nahezu sprunghafte Entwicklung dafür verantwortlicher technologischer Voraussetzungen andererseits. Mit generativer KI sind bild- und textgenerierende Modelle gemeint, die zumeist auf Deep Learning-Techniken basieren, allen voran auf generativen Neuronalen Netzwerken (GANs) und autoregressiven Sprachmodellen (autoregressive LLMs). Diese werden mit häufig unüberschaubar großen Datensätzen trainiert, um synthetische Daten (Bilder, Texte, Musik, Videos u. a.) zu erzeugen. Mit den inzwischen öffentlich zugänglichen und (dabei meist proprietären) generativen KI-Modellen, etwa (um hier nur die besonders medienwirksam diskutierten zu nennen) OpenAIs GPT-4 und DALL•E, die Text-to-Image-Generatoren Midjourney und Stable Diffusion sowie Googles KI-Modelle Gemini und Gemma, lassen sich Texte, Bilder und Videos generieren, die die Grenzen zwischen menschlichem und KI-generiertem Output sukzessive verschwinden lassen.
Bereits deutlich vor dem Durchbruch generativer KI hat die digitale Literatur computerbasierte Prozesse für sich entdeckt: Ihre Tradition beginnt mit Christopher Stracheys Love Letter Generator (1952) im angloamerikanischen Sprachraum und in Deutschland mit Theo Lutz’ Stochastischen Texten (1959). Von Beginn an ist sie mit der Konzeptkunst literarischer Avantgardebewegungen wie Oulipo in Frankreich oder Gruppo 63 in Italien verknüpft.1 Sie findet im späten 20. Jahrhundert und nach der Jahrtausendwende eine Fortsetzung etwa in der electronic literature, der digitalen Netzkunst oder in formalen Experimenten, die mithilfe sozialer Netzwerke generiert und verbreitet werden. Generative KI hat das literarische Schreiben im Zeichen des Computercodes nachhaltig beeinflusst und gerade im angloamerikanischen Bereich zu einer regen Textproduktion geführt, die mit dem Potenzial künstlicher Intelligenz einerseits experimentiert, diese andererseits bereits kritisch reflektiert. US-amerikanische generative Text-Künstler*innen wie Lillian-Yvonne Bertram (Travesty Generator, 2019), Nick Montfort (Golem, 2021; Hard West Turn, 2018; Megawatt, 2014), Mark C. Marino (Hallucinate this, 2023) oder Allison Parrish (Compressed Cinema, 2023; Wendit Tnce Inf, 2022) testen in ihren Texten das Potenzial KI-basierter Sprachmodelle und die kreativen Möglichkeiten einer Zusammenarbeit mit diesen, fordern als Wissenschaftler*innen (sie arbeiten allesamt als Forscher*innen an renommierten Universitäten) jedoch gleichzeitig einen reflexiven und kritischen Umgang damit. Mark C. Marino etwa, der an der University of Southern California das Humanities and Critical Code Studies Lab leitet, versucht bereits 2020 in seiner Studie Critical Code Studies eine neue wissenschaftliche Auseinandersetzung mit der kulturellen Bedeutung des Computercode zu initiieren. Auch deutschsprachige Autor*innen wie Hannes Bajohr (Berlin Miami, 2023; Halbzeug. Textverarbeitung, 2018), Jörg Piringer (Günstige Intelligenz, 2022; Datenpoesie, 2018), Berit Glanz (Nature Writing / Machine Writing, 2020) oder Swantje Lichtenstein (Regenerative Poems, 2023) produzieren digitale Texte, die sich mit den generativen Methoden, die sie durchaus selbst verwenden, gleichzeitig kritisch und nicht selten aus einer datenethischen Perspektive auseinandersetzen.
Von der Literaturwissenschaft und dem Literaturbetrieb in Deutschland blieben generative literarische Verfahren lange Zeit unbeobachtet und führten allenfalls ein Nischendasein. Im angloamerikanischen Ausland, wo das Fach Creative Writing (in dessen Umfeld nicht selten generative Textexperimente entstehen) tief in der akademischen Lehre und literaturwissenschaftlichen Forschung verankert ist, wurde das literarische Schreiben im Zeichen des Konzepts, des Codes und der künstlichen Intelligenz immer schon flankiert von der wissenschaftlichen Erörterung eben dieser Verfahren.2 Im deutschsprachigen Raum liegen inzwischen ebenfalls erste wissenschaftliche Studien zu kreativer künstlicher Intelligenz im Allgemeinen3 und generativer Literatur im Besonderen4 vor sowie zu damit verbundenen neuen Autorschaftskonzepten5 und Rezeptionsmodellen6 – noch immer zeigt sich aber der öffentliche und mediale (und bisweilen auch der akademische) Diskurs dominiert von der überstrapazierten Frage nach dem vermeintlichen Konkurrenzverhältnis zwischen menschengemachten und KI-generierten ästhetischen Verfahren. Dabei werden gerade solche Produktionsverfahren medienwirksam besprochen, die ästhetisch wenig interessant sind, deren Versuchsdesign aber die eben angesprochene Konkurrenz von Mensch und Maschine auszustellen scheint. Prominentestes Beispiel hierfür ist sicherlich der Ausflug Daniel Kehlmanns ins Silicon Valley im Jahr 2020 – dort sollte der deutsch-österreichische Erfolgsautor in Kooperation mit dem KI-Modell CTRL eine Kurzgeschichte verfassen. Ungeachtet der Tatsache, dass das Versuchsdesign explizit auf eine Co-Autorschaft von Autor und Sprachmodell zielt (beide schreiben jeweils nacheinander den Text weiter), macht das Feuilleton in seiner raumgreifenden Berichterstattung daraus einen Schreibwettkampf und zeigt sich erleichtert, dass der Mensch, Daniel Kehlmann nämlich, als erklärter Sieger aus diesem Kampf hervorgehe.7 Diese fragwürdige Inszenierung, die menschlich codierte Begriffe wie Intentionalität, Autorschaft, Ästhetik und Agency unmittelbar auf algorithmische Prozesse überträgt, entlarvt eine problematische anthropozentrische Vereinnahmung. Hinzu kommt, dass, wie Hannes Bajohr hervorgehoben hat, das verwendete Sprachmodell nicht nur »hoffnungslos veraltet« war, sondern zugleich von diesem gefordert wurde, einer spezifisch menschlichen Erwartungshaltung gerecht zu werden.8
Dass das Feuilleton nun ausgerechnet Daniel Kehlmann zum Verteidiger literarischer und ausdrücklich menschlicher Produktionskraft stilisiert, ist kein Zufall, handelt es sich bei ihm doch um den vielleicht einzigen deutschsprachigen Gegenwartsautor, dem man zutraut, einem Ideal des Weltliteraten zu entsprechen, wie es zunächst Goethe und im 20. Jahrhundert vor allem Thomas Mann verkörperte.9 Ausgerechnet mit Kehlmann und ›gegen‹ generative KI an einem starken Konzept menschlicher (und männlicher) Autorschaft festzuhalten, zeigt, wie sehr hier ein Autorschaftskonzept hochgehalten wird, das zumindest literaturtheoretisch längst zu Grabe getragen wurde. Umso wichtiger scheint es, die Frage nach den Produktions- und Rezeptionsbedingungen generativer Literatur nicht mehr an solchen anachronistischen Terminologien abzuarbeiten, sondern mit Blick auf konkrete generative Textexperimente und literarische Praktiken in der Gegenwart neu zu stellen. Angesichts der Diversität algorithmisch generierter Texte verliert ein an genieästhetische Ideale geknüpfter Autorbegriff in diesem Kontext seine (ohnehin umstrittene) Exklusivität – auch, weil er nun nicht mehr automatisch mit dem Vorgang des Schreibens verbunden ist, sondern auf Verfahren der Programmierung, der Codierung, der Selektion, der (Neu-)Zusammensetzung, der konzeptionellen (Sprach-)Kunst, der Kollaboration und schließlich auch der Rezeption ausgeweitet wird.
»Im Zeichen des Codes«
In den Beiträgen dieser Sonderausgabe geht es um Textpraktiken, die auf Code basieren, d. h. die in unterschiedlicher Weise mit und durch Code Texte hervorbringen, die als Literatur ausgewiesen und rezipiert werden. Auch wenn es vielfältige Formen von Codes gibt, die nicht zwingend an Computertechnologie gebunden sind, verstehen wir im Rahmen dieser Ausgabe darunter explizit den Programmcode. Doch auch damit wird noch eine gewisse Offenheit gewahrt. Wir verwenden den relativ weiten Begriff des Programmcodes bewusst, weil er uns nicht zwingt, zwischen algorithmenbasierter und KI-gestützter Textgenerierung zu trennen, und uns so ermöglicht, auch die historische Dimension generativer Literatur im Blick zu behalten. Der Programmcode kann sowohl den Algorithmus bezeichnen als auch die Coding-Sprache, die bei neuronalen Netzen beziehungsweise Deep Learning-Verfahren zum Einsatz kommt. Wir rücken zwar den Programmcode und die auf ihm basierenden literarischen Formen ins Zentrum der Zeitschrift, ihr Titel lautet jedoch »im Zeichen des Codes«, weil wir nicht ausschließlich solche Literatur untersuchen, die unmittelbar einem Programmcode entspringt, sondern uns auch weiteren literarischen Resonanzräumen ebendieses medientechnologischen Fortschritts zuwenden. Durch programmcodebasierte Formen vermag sich das Literarische neue mediale Räume auch jenseits des Computers zu erobern und richtet das literarische Feld dadurch generell neu aus. Auch solche weiteren Entwicklungen rücken an den Rändern dieses Themenschwerpunkts ins Blickfeld.
Produktion und Rezeption – Perspektiven der Zeitschriftenbeiträge
Literarische Produktion und Rezeption lassen sich »im Zeichen des Codes« nicht mehr ohne Weiteres trennen. Die Beiträge dieser Ausgabe führen vor Augen, dass bei generativer Literatur keineswegs von vornherein klar ist, was Produktion und was Rezeption ist, zumal mehrstufige Interaktionen sowohl zwischen Mensch und Maschine als auch zwischen Soft- und Hardware in diese Prozesse integriert sind. So wird korpusbasierte Poesie aus vorgefundenem und/oder kompiliertem Material mithilfe von Algorithmen ›generiert‹, das heißt: Sie wird in einem Rezeptionsakt produziert. Theo Lutz' Stochastische Texte (1959) basieren auf Franz Kafkas Das Schloss (1922/1926), Hannes Bajohrs Halbzeug (2018) ist (unter anderem) Rezeptionsdokument der Grimm'schen Märchen, sein KI-generierter Roman Berlin, Miami (2023) ist Resultat einer Arbeit mit zwei offenen Sprachmodellen, die auf vier literarische Gegenwartstexte nachtrainiert wurden. Vortrainiert waren die Sprachmodelle mithilfe eines Datenmaterials, dessen Einzeltexte sich nicht mehr nachvollziehen lassen. Diese Beispiele illustrieren: Wo generative Literatur das Ergebnis einer Zusammenarbeit mit großen LLMs ist, ist Produktion immer auch Rezeption anderer Texte. Eine weitere Begründung lässt sich in der Rolle der Adressat*innen finden, denn diese werden häufig nicht als lediglich empfangende Rezipient*innen konzipiert, sondern sind als (Mit-)Produzent*innen in den Prozess miteinbezogen. Insbesondere dort, wo das jeweilige Transformationskonzept offengelegt wird, ist der Appell zum Mit-, Selber- und Weitermachen deutlich. Diese Rollen können ebenso wechseln, wie diejenigen, die sie ausfüllen, wenn der Produktionsakt (wie u. a. bei Lutz’ Ansatz) beliebig häufig wiederholt werden kann.
Dass Rezeption und Produktion eng miteinander zusammenhängen, aber kaum mit ›Lesen‹ und ›Schreiben‹ im traditionellen Sinn zu tun haben, wird im Zusammenhang mit Umschreibprozessen deutlich. Dies wird insbesondere dann ersichtlich, wenn es um die Neuprogrammierung historischer Algorithmen in moderneren Programmiersprachen geht. Bei diesen bleibt der ursprüngliche Code nicht einmal palimpsestartig erhalten, sondern wird durch eine vollständig neue Matrix überschrieben und zum Verschwinden gebracht. Um Rezeption durch Leser*innen auch weiterhin zu ermöglichen (abermals können Lutz’ Stochastische Texte als Beispiel dienen), ist beständige Neu-Produktion von Code notwendig, wodurch die früheren Fassungen jeweils ausgelöscht werden. Um Prozesse wie diese mit all ihren Implikationen nachvollziehen zu können, werden besondere Formen von digital literacy verlangt. Diese muss zum einen ermöglichen, auf zwei Ebenen lesen zu können – der des Outputs wie der des zugrundeliegenden Codes –, in Fällen von bereits ›historisch‹ gewordenen Codes muss sie zum anderen aber auch nachvollziehen können, was an Befehlen, Zuweisungen und Deklarationen in den verschiedenen Programmiersprachen beschlossen liegt.
Unsere Sonderausgabe von Textpraxis fokussiert zwar die Spezifika von Produktion und Rezeption im Zeitalter von Algorithmen und KI, doch stellt sie die dichotome Trennung und klare Unterscheidung zwischen beiden auch grundsätzlich in Frage. So folgt die Gliederung zwar graduell einer Aufteilung in ›Produktion‹ (Heibach, Nantke) und ›Rezeption‹ (Bajohr, Meuer) und vollzieht dabei die perspektivischen Schwerpunktsetzungen nach, welche die Beiträge selbst jeweils setzen. Doch arbeiten die Beiträge nicht nur fließende Übergänge und Konvergenzen heraus (Aust, Leitgeb), sondern sie zweifeln auch explizit daran, dass diese traditionelle Unterscheidung noch Gültigkeit beanspruchen kann (Catani). Auffällig ist, dass die Mehrzahl unserer Beitragenden ihren Schwerpunkt auf der ›Rezeptionsseite‹ verortet. Zu erklären ist dies möglicherweise damit, dass gerade die Rezeption für Philolog*innen besonders anziehend ist, da in der Beschreibung und Analyse von Wahrnehmungs- und Deutungsprozessen das hermeneutische Potential der Literaturwissenschaften zum Tragen kommt.10 Hermeneutische Rezeptionszeugnisse des digitalen Wandels sind jedoch in ganz verschiedenen literarischen Erscheinungsformen möglich, also auch in solchen, die produktionsästhetisch gar nicht im direkten Umfeld generativer Literatur zu verorten sind (Meuer).
Vor diesem Hintergrund stellt sich zunächst die Frage nach den Entwicklungen der literarisch-künstlerischen Auseinandersetzung mit Programmcodes in den ersten Jahrzehnten der Digitalisierung. Christiane Heibachs produktionsästhetisch ausgerichteter Blick lässt mehr als zwanzig Jahre künstlerischer Beschäftigung mit digitalen Medien Revue passieren, ruft in Erinnerung, dass schon in den frühen 2000er-Jahren der Begriff des Codeworks für solche künstlerischen Projekte geprägt wurde, die sich mit den Programmiersprachen der digitalen Medien beschäftigen und die dabei kritisch und selbstreflexiv die erkenntnistheoretischen und handlungspraktischen Implikationen derjenigen technologischen Entwicklungen erkunden, die sie selbst verwenden. Vor diesem Hintergrund wirft sie die Frage auf, inwiefern das Verständnis von Codework im Zeitalter von KI modifiziert werden muss. Insbesondere die Einschränkung der Steuerungshoheit durch den Menschen und die Entwicklung der Mensch-Maschine-Interaktion hin zur Cyborg-Autorschaft reflektiert sie als einschneidende Veränderung, in der eine neue Form und ein neues Potential von Codework liegen.
Einen Eindruck davon, wie sich diese Lage derzeit angesichts neuer Deep Learning-Techniken und Künstlicher Neuronaler Netzwerke verändert, vermittelt Julia Nantkes Beitrag. Inwiefern die spezifischen Produktionsprozesse generativer Literatur sowie die daran gekoppelte Publikations- und Inszenierungsformen tradierte literaturwissenschaftliche Kategorien wie Autor*innenschaft und Werkbegriff verändern, untersucht Nantke am Beispiel von Ross Goodwins Text 1 the Road (2018), einem der frühesten KI-generierten Romane. Im Rückgriff auf die Akteur-Netzwerk-Theorie und den Begriff der Schreibszene zeigt der Beitrag, wie generative Literatur in durchaus produktiver Auseinandersetzung mit etablierten Konzepten der Literaturwissenschaft theoretische Rekonfigurationen ermöglichen kann.
Dass im Rahmen von KI-gestützter Textgenerierung jeder Produktionsakt eines Textes zugleich Rezeptionszeugnis anderer Texte ist, illustriert der Beitrag von Robin-M. Aust am Beispiel von Hannes Bajohrs ›Hybridgedichten‹ aus Halbzeug. Im Rückgriff auf Julia Kristevas Arbeiten versteht Aust die konzept- und korpusbasierte Lyrik Bajohrs als Radikalisierung des Konzepts von Intertextualität, die in der Folge zur Auflösung eines klar definierbaren Werkbegriffs führt, sowohl in Bezug auf die neu generierten Texte als auch das zugrunde gelegte und weiterverarbeitete Textmaterial. Am Beispiel von Schweigen (das auf Eugen Gomringers gleichnamiges Gedicht zurückgeht) macht Aust nachvollziehbar, wie sich unterschiedliche Spielarten analoger und digitaler Literatur verschränken, wenn die materiale ›Textliteratur‹ sich zu einer computernutzbaren erweitert: In dem Fall wird das Gomringer-Gedicht einer tonverarbeitenden Software eingespeist. Das Ergebnis ist über einen Link im Internet abzurufen. Der gedruckte Text wird hier als Link zur Weiterleitung auf das Digitale und zugleich das Auditive – die dem Link nur wahlweise folgenden Rezipient*innen sind damit Teil des Konzepts und des finalen Produktionsakts.
Ein anderer Fall von Rekonfiguration ist Gegenstand von Johannes Leitgebs Beitrag. Dieser zeigt, dass die ›Originale‹, die Hypotexte, die mithilfe digitaler Techniken transformiert werden, in der Appropriation nicht immer ko-präsent bleiben. Dies ist dann der Fall, wenn der ursprüngliche Hypotext bereits als Code verfasst wurde, wie Leitgeb am Beispiel von Theo Lutz’ Stochastischen Texten nachvollzieht. Daher müssen auch Verfahren der Reimplementierung und Emulation digitaler Literatur als Formen der Rezeption verstanden werden, wenn diese auf einem anderen als dem ursprünglich für die Erstproduktion verwendeten System reinszeniert werden. Diese Reinszenierungen sind daher gleichzeitig ›Produktion‹, weil sie in neuer Umgebung mit anderen Programmiersprachen neue Codes erforderlich machen, als notwendige Übersetzungen, um überhaupt die Bedingungen für die Möglichkeit von (diachroner) Rezeption aufrechtzuerhalten. Hardware und Software sind integraler Teil eines Produktions- und Rezeptionsprozesses, an dessen Ende erst ein Lesen als Informationsverarbeitung durch menschliches Bewusstsein steht.
Dass solche Rekonfigurationen nicht allein die Produktionsebene betreffen, sondern auch die der Rezeption, stellt der Beitrag von Stephanie Catani heraus. Er untersucht die veränderte Rolle der Leser*innen-Instanz im Kontext generativer Literatur, die zum einen dort eine Aufwertung erfährt, wo der Prozess der Lektüre einmal mehr als Form der Sinnstiftung sichtbar wird. Zum anderen leuchtet der Beitrag die neuen Leseherausforderungen aus, die der aus generativen Verfahren resultierende komplexe Textbegriff bereithält. Die Instanzen von Autor*in und Leser*in gehen hier sukzessive ineinander über, da der generative Text immer auch das Resultat eines hermeneutischen Prozesses ist, im Zuge dessen Autor*innen zu Leser*innen werden.
Während die Frage, wann (generativ) ›kreierte‹ Produkte als Kunst gelten können, spätestens seit den historischen Avantgardebewegungen aufs Neue virulent wird, erhält zu einer Zeit, in der immer mehr Texte vermittels Programmcodes, also durch Computer und KI-Systeme, generiert werden, auch die Frage, wann Literatur überhaupt als Literatur gelten kann, neue Relevanz. Hannes Bajohr schlägt vor, in Analogie zur modernen Deixis »This is art« eine deiktische Geste »this is literature« und deren soziale Anerkennung innerhalb einer Urteilsgemeinschaft als entscheidende Valorisierungsinstanz im Bereich des Literarischen zu betrachten. Die Deixis wird für ihn zur »notwendigen Bedingung für Literatur« im Zeitalter von KI.
Durch die medientechnologischen Entwicklungen und jene Literatur, die künstlerisch von Programmcodes Gebrauch macht, verändert sich auch das literarische Feld insgesamt und erfährt eine Ausweitung. Wie diese Veränderungen aussehen und wie das Feld begrifflich aufgefächert werden kann, ist ebenfalls Gegenstand dieser Ausgabe. Die meisten der hier versammelten Beiträge wenden sich solchen Werken zu, die im emphatischen Sinne born digital sind, also selbst künstlerisch den Gebrauch von Programmcodes ausloten. Obgleich mit dem Begriff des Codework, Heibach zufolge, längst eine Beschreibung für kritisch wie selbstreflexiv verfahrende digitale Kunstformen etabliert wurde, firmieren dieselben literarischen Erscheinungsformen im deutschsprachigen Raum auch unter dem Begriff der ›Digitalen Literatur‹. Marlene Meuer wirft die Frage auf, wie von den bereits bestehenden Termini der Begriff des ›Postdigitalen‹ im Bereich des Literarischen sinnvoll abgegrenzt und geschärft werden könnte. In Anlehnung an den musik- und kunstwissenschaftlichen Diskurs schlägt sie für einen spezifischen literarischen Subtypus, der vermittels digitaler Techniken ein literarisches Cross-Over der Künste realisiert, doch Entwicklungen rund um Digitalität und KI aus einer kritischen Randposition reflektiert, den Begriff der Postdigitalen Sprachkunst vor. Postdigitale Kunstformen, so ihr Vorschlag, partizipieren zwar an den digitalen Entwicklungen, doch reflektieren sie dieselben aus einer distanzierten Position und suchen den originellen ästhetischen Ausdruck bereits jenseits des Digitalen.
Wir danken der Redaktion, vor allem Nursan Celik, für die gute Zusammenarbeit und Betreuung bei der Vorbereitung dieses Themenschwerpunkts. Auch allen, die uns mit Gutachten unterstützt haben – namentlich Juliane Blank, Charis Goer, Christoph Kleinschmidt, Elias Kreuzmair, Tanja Prokić, Matthias Schaffrick und Julian Schröter – sind wir zu großem Dank verpflichtet; ihre Einwände, Anmerkungen und Vorschläge haben unser aller Nachdenken und Schreiben über Aspekte von Code und generativer Literatur bereichert.
- 1. Zum Zusammenhang von Code und Konzept vgl. Hannes Bajohr (Hg.): Code und Konzept Literatur und das Digitale. Berlin 2016.
- 2. Ray Siemens u. Susan Schreibman (Hg.): A Companion to Digital Literary Studies. New York 2013; Kenneth Goldsmith: Uncreative Writing. New York 2011; Dennis E. Baron: A Better Pencil: Readers, Writers, and the Digital Revolution. Oxford 2009; Ranjana Das u. Tereza Pavlíčková: »Is There an Author Behind This Text? A Literary Aesthetic Driven Approach to Interactive Media«. In: New Media & Society 16.3 (2013), S. 381–397; Leah Henrickson: Reading Computer-generated Texts. Cambridge 2021; Mike Sharples u. Rafael Pérez y Pérez: Story Machines. How Computers have become Creative Writers. New York 2022; Arthur I. Miller: The Artist in the Machine: The World of AI-Powered Creativity. Cambridge 2019.
- 3. Stephanie Catani (Hg.): Handbuch Künstliche Intelligenz und die Künste. Berlin 2024.
- 4. Hannes Bajohr: Schreibenlassen. Texte zur Literatur im Digitalen. Berlin 2022; Stephanie Catani: »Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion«. In: Dies. (Hg.): Handbuch Künstliche Intelligenz und die Künste. Berlin 2024, S. 153–170; Philipp Schönthaler: Die Automatisierung des Schreibens & Gegenprogramme der Literatur. Berlin 2022; Gerhard Schreiber u. Lukas Ohly (Hg): KI:Text. Diskurse über KI-Textgeneratoren. Berlin 2024.
- 5. Hannes Bajohr: »Vom Geist und den Maschinen. Autorschaft zwischen Mensch und Computer«. In: Ders.: Schreibenlassen. Texte zur digitalen Literatur. Berlin 2022, S. 33–38; Ders: »Autorschaft und Künstliche Intelligenz«. In: Stephanie Catani (Hg.): Handbuch Künstliche Intelligenz und die Künste. Berlin 2024, S. 265–280.
- 6. Bereits 2017 erschien der Band von Sebastian Böck, Julian Ingelmann u. a. (Hg.): Lesen X.0. Rezeptionsprozesse in der digitalen Gegenwart. Göttingen 2017. Darin findet die Beschäftigung mit Rezeptionsprozessen zwangsläufig ausschließlich mit Blick auf eine algorithmenbasierte literarische Produktion statt, da die Generierung literarischer Texte durch LLMs erst in den kommenden Jahren an Fahrt aufnehmen konnte.
- 7. Zum medialen Diskurs vgl. Stephanie Catani: »Generierte Texte. Gegenwartsliterarische Experimente mit Künstlicher Intelligenz«. In: Andrea Bartl, Corina Erk u. Jörn Glasenapp (Hg.): Schnittstellen. Wechselbeziehungen zwischen Literatur, Film, Fernsehen und digitalen Medien. Paderborn 2022, S. 247–266.
- 8. Hannes Bajohr: »Keine Experimente. Über künstlerische Künstliche Intelligenz«. In: Merkur 75.5 (2021), S. 32–44.
- 9. Heinrich Detering adelt Kehlmann in seiner Laudatio im Rahmen der Verleihung des Thomas-Mann-Preises im Jahr 2008 als würdigen »Nachfolger« Manns und verankert »seine Erzählkunst in den Spuren des Zauberers«, vgl. Heinrich Detering: »Die Spuren des Zauberers. Über Daniel Kehlmann und Thomas Mann«. In: Thomas Mann Jahrbuch 23 (2010), S. 119–126.
- 10. Roberto Simanowski hat bereits früh den Rezeptionsakt digitaler Kunst starkgemacht, als er durchaus emphatisch »eine hermeneutische Perspektive auf diese neuen künstlerischen Phänomene« verfolgte, um die »Möglichkeit[en] einer deutenden und bedeutungsgebenden Interaktion mit digitaler Kunst« auszuloten. Roberto Simanowski: Textmaschinen – Kinetische Poesie – Interaktive Installation. Zum Verstehen von Kunst in digitalen Medien. Bielefeld 2012, S. 19f.
Add comment