Stephanie
Catani
Würzburg

»The reader becomes the writer«?

Generative Literatur ›lesen‹

Wenn im folgenden Beitrag von ›generativen Verfahren‹ die Rede ist, dann im Bewusstsein, dass generative Ästhetik nicht erst im Bereich digitaler Literatur eine lange Tradition besitzt, sondern bis zu den kombinatorischen Ideen Georg Philipp Harsdörffers (Fünffacher Denckring der Teuschen Sprache, 1651) und Gottfried Wilhelm Leibniz (Dissertatio de arte combinatoria, 1666) zurückgeht. Im engeren Sinne leitet sie sich aus der Konzeptkunst der 1960er-Jahre ab, vor allem aber von den Arbeiten Max Benses, später Georg Nees’ und dann Frieder Nakes, allesamt Pioniere im interdisziplinären Grenzbereich von Informatik und Kunst. Generative Kunst bezieht sich gegenwärtig meistens auf computerbasierte Prozesse als Grundlage einer künstlerischen Produktivität. Mit generativer Literatur sollen im Folgenden Projekte angesprochen werden, die codegesteuert und/oder KI-basiert arbeiten und in denen nicht der abgeschlossene, einzelne Text von Interesse ist, sondern der gesamte Generierungsprozess – das Konzept also, das den Weg von der Idee über das Projektdesign zum generierten Text umfasst.

Eine solche generative Ästhetik zeigt sich in Genres wie der Code Poetry oder der von Jörg Piringer so bezeichneten Datenpoesie.1 Günter Vallaster, ein österreichischer Schriftsteller und Experte für visuelle Poesie, spricht ergänzend von IT-Poesie und versteht darunter die Informationstechnologie als »Form und Forschungsfeld der poetischen Auseinandersetzung sowie die Anwendungsbereiche der IT als poetisches Kernthema im Sinne der Schärfung der Wahrnehmung«.2 Die immer potenteren generativen Sprachmodelle, pointiert Vallaster, sorgen für den Aufwind dieses bestimmten literarischen Genres:

Gegenwärtig werden in diesem Bereich intensiv die Möglichkeiten künstlicher neuronaler Netze wie GPT-2 und GPT-3 (Generative Pretrained Transformer 2 und 3) ausgelotet, also von Software, die auf Basis künstlicher Neuronen und enormer Textmengen in der Lage ist, Texte zu erzeugen, die von menschlichen zunehmend weniger zu unterscheiden sind.3

IT-Poesie erscheint dabei durchaus in tradierten analogen Formaten: Gerade die Lyrik hat sich generativen Verfahren bereits geöffnet, als diese noch nicht unter dem Begriff der Künstlichen Intelligenz firmierten, sondern einen Teil computerisierter Verfahren der literarischen Avantgarden darstellten. Lyrische Texte erscheinen noch gegenwärtig in analogen Buchformaten, etwa Jörg Piringers Bände datenposie (2018) und günstige Intelligenz (2018), Fabian Navarros poesie.exe, Hannes Bajohrs Halbzeug (2018) oder die Bücher in der von Bajohr und Gregor Weichbrodt herausgegebenen Reihe 0x0a im Frohmann Verlag, die sich auf konzeptuelle digitale Literatur konzentriert. Zugleich zeigt sich, dass die literarische Produktion im Zeichen des Generativen nicht mehr an tradierte Buchformate gebunden ist. IT-Poesie begegnet allen voran im Netz, auf Autorenwebseiten und Social-Media-Kanälen oder Online-Diensten wie GitHub, wo der Code zu den jeweiligen Textexperimenten gleich mitveröffentlicht wird. Der Poesiebegriff muss in dem Zusammenhang ebenso wie der Text- und Literaturbegriff als ein sehr weiter aufgefasst werden, da die Formsprache generativer Ästhetik multimodal funktioniert und visuelle, narrative wie auch auditive Elemente beinhalten kann. So liegt eine besondere Herausforderung digitaler Produktions- und Rezeptionskulturen gerade darin, dass digitale Kunst und im engeren Sinne generative Literatur genuin transmedial beschaffen ist – wir also ein Überwinden tradierter Grenzen zwischen den Einzelmedien oder bestimmten Kunstformen wie auch konventioneller Vorstellungen von Text, Werk, Autor*innen-Instanz und der Figur der Leserin und des Lesers feststellen können.

Mit digitalen Texten4 und erst recht mit KI-basierten generativen Sprachmodellen vedrücklich wie damit verbundene Konzepte von Autorschaft und Leser*innen.5 Leah Henrickson spricht in diesem Zusammenhang von einem hermeneutischen Vertrag (hermeneutic contract) zwischen Autor*in und Leser*in, der sich üblicherweise über die Prämisse definiert, »that through language we articulate and ligitimise lived experiences to ourselves and others. […] The hermeneutic contract is therefore rooted in an expectation of agency informed by lived experience«.6 Wie aber, fragt auch Henrickson, lässt sich ein solcher Vertrag noch behaupten, wenn sich die Autor*innen-Instanz und an sie gekoppelte Vorstellungen von Intentionalität, Adressierung und Erfahrung im Falle einer KI-basierten Textproduktion so leicht nicht mehr bestimmen lassen: »The author of a computer-generated text is often an obscured figure, an uncertain entanglement of human and computer.«7 Der Beitrag untersucht, indem er KI-generierte Texte als Produkte einer solchen Verstrickung von menschlicher und künstlicher Autorschaft in den Blick nimmt, die veränderte Rolle des*der Lesers*Leserin und des Lesens.

1 Aufwertung der Leser*innen-Instanz

Mein als Frage formulierter Titel, der auf ein Zitat des amerikanischen IT-Künstlers Ross Goodwin (»The reader becomes the writer«)8 zurückgeht, bezieht sich auf eine im Kontext generativer Kunst häufig behauptete Stärkung der Leser*innen-Instanz. Diese Aufwertung geht einher mit Diskussionen um die Relevanz des*der Autors*Autorin und gilt nicht erst für generative Texte, sondern ist bei digitaler Literatur und Kunst im Allgemeinen zu beobachten.

1.1 Historische Vorläufer: Leser*innen als User*innen

Historisch einschlägig sind zunächst jene Diskussionen, die das Aufkommen digitaler Hypertexte Ende der 1980er-Jahre begleiten. Damit sind Texte gemeint, die eine nichtlineare Struktur aufweisen und Leser*innen durch die multilineare Anordnung der Inhalte unterschiedliche Möglichkeiten der Texterschließung, der Lektüre eröffnen. Leser*innen werden hier insofern zu Autor*innen, als ihre Wahl der Texterschließungswege das Aussehen des endgültigen Textes mitbestimmt. Kurt Fend hat sich in einem Beitrag zum Hypertext und seinen literarisch-ästhetischen Vorbildern mit dieser neuen Rolle der Leser*innen auseinandergesetzt, die nun nicht allein die Rezeptions-, sondern die Produktionsebene des Textes bestimmt:

Wird der Leser tatsächlich zum Mitautor, wenn er Texte und Fragmente in einen neuen, kohärenten Interpretationszusammenhang bringt oder ist dies nur die konsequente Weiterentwicklung der Funktion des Lesens in digitalen Medien? Wird der Autor degradiert zum Rohstofflieferanten, dessen Texte erst die Leser in eine adäquate literarische Form bringen?9

Mit einem leicht abgewandelten Zitat einer fiktiven Figur Vladimir Nabokovs, des Literaturwissenschaftlers Charles Kinbote aus dem Roman Pale Fire (1962), beendet Fend schließlich seinen Beitrag: »It is the reader who has the last word.«10 Dass Fend ausgerechnet diesen Roman Nabokovs zitiert, ist kein Zufall, sondern der Tatsache geschuldet, dass Pale Fire als literarisches Vorbild für ein nicht-sequentielles Schreibens fungiert.11 So bezeichnet der amerikanische IT-Pionier Ted Nelson, auf den die Begriffe ›Hypertext‹ und ›Hypermedia‹ zurückgehen und der in den 1960er-Jahren mit Xanadu das erste Hypertext-Projekt begründet, Nabokovs Roman in seiner einflussreichen Studie Literary Machines programmatisch als »brilliant poetic hypertext«.12

Insbesondere im Anschluss an Espen Aarseths Studie zu Ergodic Literature, die im Übrigen auch auf Nabokovs Text verweist,13 wird die Diskussion um die Rolle der Leser*innen im Blick auf nicht-sequenzielle Texte weitergeführt. Mit Ergodic Literature bezeichnet der norwegische Ludologe und Experte für elektronische Literatur sein vorrangig auf Computerspiele bezogenes Cybertext-Konzept, wonach Leser*innen die finale Erzählung durch (auch physische) Interaktionen am Interface mitkonstruieren: »The concept of cybertext« heißt es bei Aarseth,

centers attention on the consumer, or user, of the text, as a more integrated figure than even reader-response theorists would claim. […] During the cybertextual process, the user will have effectuated a semiotic sequence, and this selective movement is a work of physical construction that the various concepts of ›reading‹ do not account for. This phenomenon I call ergodic […].14

Tatsächlich lassen sich, wie bereits in analogen und digitalen Hypertexten, auch im Videospiel die Ebenen der Rezeption und der Darstellung nur schwer trennen: Die Leser*innen respektive Spieler*innen bestimmen durch ihr individuelles Gameplay die gespielte und das heißt immer auch die erzählte Geschichte mit.

1.2 Lesen als Prozess der Sinnstiftung

Mit Blick auf generative Verfahren der Gegenwart geraten nun weniger Leser*innen in den Blick, die als User*innen die histoire mitschreiben (wobei auch generative Textexperimente interaktive Momente enthalten), als vielmehr Leser*innen, durch deren Exegese der Text erst sein spezifisches Sinnangebot erhält – im Grunde geht es hier um eine Fortschreibung rezeptionsästhetischer Ansätze seit den 1970er-Jahren, nun aber mit dem Fokus auf digitale generative Verfahren, und um den Abschied von der ohnehin überholten Vorstellung der Autor*innen-Instanz als Originalgenie.

Bemerkenswert ist, dass die Leser*innen-Instanz in der Auseinandersetzung mit computergestützten literarischen Produktionsprozessen bereits Aufwind erfährt, als sich generative Verfahren noch in ihren Anfängen befinden. Inzwischen sind sie, nicht zuletzt durch die großen KI-Sprachmodelle wie Googles PaLM, Metas LLaMA oder OpenAIs GPT-Modelle, längst im Alltag angekommen. Aber schon 1967 beweist der italienische Schriftsteller Italo Calvino in seinem Essay Cibernetica e fantasmi (deutsch: Kybernetik und Gespenster) erstaunliche Weitsicht, wenn er in Rückbesinnung auf die Tradition der écriture automatique und mit Verweis auf die generativen Verfahren des 1960 gegründeten Autorenkollektives Oulipo die Vorstellung einer Maschine als Autor*in, eines ›literarischen Roboters‹, emphatisch begrüßt – als Befreiungsschlag der Literatur nämlich. Denn dort, wo die Figur des*r Autors*Autorin an Relevanz verliert, tritt mit Calvino die essenzielle Bedeutung des Rezeptionsvorgangs und damit die Instanz des*r Lesers*Leserin umso stärker in den Vordergrund:

Nachdem der Prozeß der literarischen Komposition auseinandergenommen und wieder zusammengesetzt worden ist, kommt der entscheidende Augenblick des literarischen Lebens – die Lektüre. In diesem Sinne wird die Literatur, auch wenn sie einer Maschine anvertraut wird, immer ein privilegierter Ort menschlichen Bewußtseins sein, eine Veräußerlichung der Potentialitäten, die im Zeichensystem jeder Gesellschaft und jeder Epoche enthalten sind: das Werk wird weiterhin im Kontakt mit dem lesenden Auge geboren, beurteilt, zerstört oder ständig erneuert werden.15

Calvinos Aufwertung der Leser*innen-Instanz, die einhergeht mit einer Schwächung der Autor*innen-Figur, »diese[s] Darstellers, dem man ständig Funktionen zuschreibt, die ihm nicht zustehen,«16 nimmt gegenwärtig behauptete Positionen um ein halbes Jahrhundert vorweg. So reflektiert auch der US-amerikanische IT-Künstler Ross Goodwin seine eigenen Experimente an der Schnittstelle von Kunst und KI, indem er, Calvino analog, die Stärkung der Leser*innen-Instanz hervorhebt. Goodwin veröffentlicht 2018 den Roman 1 the Road – das Resultat eines gemeinsam mit Freund*innen absolvierten ›Road Trips‹ von Brooklyn (NY) bis New Orleans (LA). Sein ›Schreibgerät‹ ist ein Auto, das er mit GPS-Sensoren auf dem Dach und einer Überwachungskamera auf dem Kofferraum ausstattet.17 Die GPS-Einheit ist über eine App mit einer Onboard-Datenbank von Foursquare-Standorten verbunden, die standortabhängig Informationen zu Restaurants und anderen Lokalitäten liefert. Im Innenraum des Autors zeichnet das Mikrofon von Goodwins Laptop sämtliche im Auto geführten Gespräche sowie die Uhrzeit auf. Jedes dieser unterschiedlichen ›Aufzeichnungssysteme‹ versorgt die künstliche Intelligenz, konkret ein System unterschiedlicher neuronaler Netzwerke, mit spezifischen Signalen: mit Bildern, mit den Raum beschreibendem Text, mit Dialogtexten aus dem Autoinneren und dem Zeitsignal. Ein rekurrentes neuronales Netz wird mit diesen diversen Signalen ›gefüttert‹ und generiert anschließend Buchstabe für Buchstabe eine automatische Erzählung, die in Echtzeit mit einem On-Board-Printer ausgedruckt wird: Insgesamt kommen elf Schriftrollen zustande, die 2018 als nicht edierter Text im Pariser Verlag Jean Boîte Éditions erscheinen.

Dass dieser KI-generierte Text auf den ersten Blick tradierte Sinnangebote scheinbar verweigert, begreift Goodwin als spezifische Herausforderung der Leser*innen, denen es nun zukomme, Bedeutung überhaupt erst herzustellen:

We typically consider the job of imbuing words with meaning to be that of the writer. However, when confronted with text that lacks objective meaning, the reader assumes that role. In a certain way, the reader becomes the writer.18

An einer ähnlichen Aufwertung der Rezeptionsebene seiner Kunst versucht sich ein weiterer Pionier generativer, KI-gestützter Ästhetik: der deutsche Künstler Mario Klingemann, der in seinen Kunstprojekten als einer der ersten neuronale Netze und Deep-Learning-Verfahren einsetzte. Im Fall von Appropriate Response19 (2020, erstmals im Rahmen einer Madrider Ausstellung installiert) handelt es sich um einen GPT2-basierten Algorithmus zur Texterzeugung, der jedem Betrachter einen spezifischen Satz liefert. Klingemann trainierte das Modell weiter mit 60.000 Zitaten aus unterschiedlichsten Quellen und dem Ziel, Sätze in aphoristischer oder Sentenzen-Form auszugeben. Die automatisch generierte Textausgabe ist durch das Projekt-Design als eine sakralisierte, ins Transzendente verlagerte Art der Erfahrung inszeniert. Die Besucher*innen knien auf einem Betstuhl vor einer Fallblattanzeigetafel, die pro Besucher*in einen Satz anzeigt. Der physische Kontakt mit dem Betstuhl löst die Textgenerierung und deren Visualisierung auf der Anzeigetafel aus. Nachdem der vollständige Satz eingeblendet ist, beginnt er sich Karte für Karte abzubauen, wobei er sich langsam zu zufälligen Buchstaben, Symbolen und leeren Stellen entwickelt.20

Das besondere Projektdesign beeinflusst die Rezeptionsebene unmittelbar – die intendierte Spiritualität der Szene maximiert das Bemühen der Betrachter*innen, sich vom ausgegebenen Satz persönlich angesprochen zu fühlen und seine Bedeutung individuell zu konkretisieren. »People take it very personally… like fortune telling«21, stellt Klingemann im Video zum Projekt fest und unterstreicht die Relevanz der Textexegese durch die jeweiligen Leser*innen. Ganz ausdrücklich versteht der Künstler sein Projekt als Emanzipation der Rezipient*innen-Instanz – Sinn erhalten die generierten Sätze, indem sie kontextualisiert, d. h. in Bezug zum Leben und zu den Erwartungen der jeweils Betrachtenden gesetzt werden. »Without the viewer«, schlussfolgert Klingemann programmatisch, »it wouldn’t be the piece«.22 Diese Sinnstiftung durch Lesende gehört zu den zentralen Aspekten des Rezeptionsprozesses im Fall von generativer Literatur – auch Hannes Bajohr unterstreicht ihre Relevanz in seinem Nachwort zu seinem 2023 veröffentlichten KI-generierten Roman (Berlin, Miami).23 Für seinen Roman arbeitet Bajohr mit den quellenoffenen Sprachmodellen GPT-J und GPT-NeoX des Nonprofit-Unternehmens EleutherAI und trainiert die Modelle auf vier Gegenwartsromane nach, die gemeinhin als Vorzeigetexte einer digitalen Gegenwart verstanden werden: Berit Glanz’ Pixeltänzer (2018), Joshua Groß’ Flexen in Miami (2020), Julia Zanges Realitätsgewitter (2016) und Juan S. Guses Miami Punk (2020). Im Gegensatz zu ChatGPT generiert Bajohr den Text nicht mithilfe von Prompts, sondern durch die »next token prediction«, eine Methode, bei der das Sprachmodell die Eingabe (Buchstabe, Zeichen, Wort oder Satz) jeweils zu einer vorher festgelegten Anzahl an Token vervollständigt. Der gedruckte Romantext umfasst schließlich 230 Seiten und liefert weder eine lineare Geschichte noch eine in sich konsistente Romanhandlung: »[W]enn man«, schlussfolgert Harald Stauns in seiner Rezension in der FAZ, »mit der gängigen Frage an das Buch herantritt, ob KI jetzt in der Lage ist, Romane zu schreiben, müsste man dem Experiment wohl deutlich das Scheitern bescheinigen«.24 Um diese Frage aber, weiß auch Staun, geht es dem Roman, geht es vor allem Hannes Bajohr nicht: Der Autor ist nicht daran interessiert, die Konkurrenzfähigkeit des Sprachmodells zu konventionellen Formen literarischen Schreibens zu untersuchen, sondern herauszufinden, welche »Literaturformen […] genuin aus den digitalen Mitteln hervor[gehen], die uns umgegeben und unseren Weltzugang bestimmen«.25 Und dabei auch nach neuen Leseerfahrungen zu fragen: »Schließlich: Wie liest man das Ganze eigentlich am Ende?«26 Wie andere Autor*innen generativer Literatur hebt Bajohr die Rolle der Leser*innen hervor, die im Moment der Lektüre Sinn erst herstellen – KI-generierte Texte funktionieren hier wie ein Brennglas, das die rezeptionsästhetische Prämisse von der Aneignung des Textes durch Lesende, denen es nicht um das Nachvollziehen einer angenommen Autorintention geht, in aller Deutlichkeit vorführt:

(Berlin, Miami) ist vielleicht vor allem Zeugnis dieser unabschließbaren Kollaboration – […] auch zwischen dem Text und seinen Leser:innen, die ihm im Moment der Lektüre erst einen Sinn geben, der durch das generierende System gar nicht gedeckt sein mag. Schließlich ist jeder Text Oberfläche für die ihn Lesenden und Bedeutung nur eine Frage der Toleranz ihrer Abwesenheit.27

So lässt sich vorläufig schlussfolgern: Die bedeutungskonstituierende Tätigkeit des Lesens, die Wolfgang Iser einst als Konkretisierung von »Leerstellen« und »Unbestimmtheitsstellen« im Text durch die Leser*innen bezeichnet hat,28 wird durch generative Texte, die sich herkömmlichen Sinnstiftungsprozessen a priori verweigern, radikal sichtbar gemacht.

2 Das Textganze als Leseherausforderung

Ungeachtet der soeben dargestellten, sich in der Rezeption generativer Kunst vergegenwärtigenden Sinnbildungsprozesse scheint mir die häufig reflexartig ausgerufene Stärkung der Leser*innen-Instanz voreilig, zumindest aber zu einseitig zu sein: Ein erstes Gegenargument ist im viel zu selten berücksichtigten, komplexen Textbegriff begründet, der bei generativer Literatur zum Tragen kommt. Simone Winko hat auf die Doppelstruktur jedes digitalen Textes, der aus einem Oberflächen- und einem Quelltext besteht, bereits früh hingewiesen.29 Bei generativer Literatur, die auf die Verwendung von KI-Modellen zurückgeht, haben wir es mit noch mehr Textschichten zu tun: Neben a) dem als Literatur gelesenen und ggf. bewusst durch die Autor*innen ausgewählten Oberflächentext und b) dem den Algorithmus ausführenden Quelltext/Code30 gehören zum jeweiligen literarischen Kunstwerk auch c) die durch die Autor*innen gezielt (und – bei vortrainierten Sprachmodellen – ggf. nachträglich) als Trainingsmaterial implementierte Datenbasis, d) die Gesamtheit des Datenkorpus, auf die das Modell vortrainiert wurde, sowie e) die Menge sämtlicher im Generierungsverfahren erzeugten Texte. Mit KI-basierten Chatbots wie ChatGPT, Google Bard oder Bing Chat als Interfaces zwischen Sprachmodell und Nutzer*in kommt ein weiterer Text hinzu, f) die natürlichsprachliche Texteingabe bzw. der Prompt. Sämtliche dieser Texte sind Bestandteil des literarischen Werks, wobei in der Regel nur der Output, die generierten Texte, gelesen, gedeutet und als Literatur etikettiert werden. Der Quellcode oder eben (im Deutschen) Quelltext, der in einer Programmiersprache geschriebene Text eines Computerprogramms, entzieht sich dem Zugang zumindest durch jene Leser*innen, die nicht informatisch geschult sind – und das sind, allen voran unter Geisteswissenschaftler*innen, nicht wenige. So hat Martin Stobbe in seinem Plädoyer für Procedural Literacy ganz richtig eine dringend werdende »methodologische Selbstreflexion« für die Literaturwissenschaft eingefordert, die sich der Frage stellen muss, »ob professionelle LeserInnen, in diesem Fall LiteraturwissenschaftlerInnen, ihre Lesegewohnheiten unter digitalen Bedingungen ebenfalls ändern bzw. ihr Repertoire an Analysetechniken erweitern müssen, um ihren Gegenstand adäquat beschreiben zu können«.31 Autor*innen digitaler generativer Texte verfügen längst über jene Kompetenzen, die ihren Leser*innen häufig fehlen: Sie programmieren selbst oder arbeiten für ihre Textexperimente mit Informatiker*innen zusammenarbeiten und setzen sich mit dem Code als Teil ihres literarischen Werks bewusst auseinander. Um nur ein Beispiel für das reziproke Zusammenspiel von Textoberfläche und Quelltext zu nennen: Im Fall von Hard West Turn, einem computergenerierten Roman von Nick Montfort über Waffengewalt in den USA, ist das Ausführen des 2018 implementierten Codes an einen bestimmten englischsprachigen Wikipedia-Artikel geknüpft. Wird dieser verändert, funktioniert der Code nicht mehr. Montfort hat sein Projektdesign daher mehrfach überarbeitet, die laufende ›Arbeit am Text‹ auf seiner Webseite durchgehend kommentiert und den jeweils gültigen Code auf seiner Webseite veröffentlicht.32 Wenn wir der rezeptionstheoretischen Prämisse folgen, dass Mehrdeutigkeit oder Ambiguität als »Grundeigenschaft[en] der Dichtung«33 gelten und im Unterschied dazu faktuale, z. B. wissenschaftliche oder informative Texte ein, mit Roman Ingarden, »eindeutiges Mitdenken der Bedeutung«34 abverlangen, wird der*die Leser*in allenfalls beim generierten, als literarisch markierten Text zur souveränen Deutungsinstanz, scheitert in der Regel aber daran, den Code als Quelltext nachzuvollziehen. Das Textganze, das zusätzlich zum generierten Text bzw. den generierten Texten aus Texteingaben, Algorithmen, Trainingskorpora und verworfenen Textpassagen bestehen kann, entzieht sich den meisten Leser*innen. Auch Hannes Bajohr weiß um diese Relativierung trotz seiner Privilegierung des Lektüremoments. Im Nachwort zu seinem eigenen Roman verweist er auf »die merkwürdige Lesehaltung«35, die dieser hervorbringe, und sieht eine besondere Herausforderung darin, nicht nur den Textoutput zu deuten, sondern das Konzept, das für die Textgenerierung verantwortlich ist (und damit auch alle Texte, die Teil des Konzepts sind), zu berücksichtigen:

Der Roman weiß etwas, was über das hinausgeht, was er unmittelbar sagt. Was das ist, kann man nur herausfinden, wenn man ihn liest, wobei sich vielleicht erst im Prozess der Lektüre die Fragen stellen, die er beantwortet. Das geht aber nur, wenn man versteht, wie er entstanden ist. Und dazu braucht es eben das Konzept, das hinter ihm steht.36

3. The writer is the reader

Ein weiterer Aspekt kommt hinzu, den ich – meinen ursprünglichen Titel umkehrend – überschreiben möchte mit: The writer is the reader. Hier geht es mir darum, den Auswahlprozess, den Autor*innen im Zuge des Textgenerierungsprozesses vornehmen, als Moment der Lektüre und damit verbunden als hermeneutischen Prozess ernst zu nehmen. Der Kulturwissenschaftler Vladimir Alexeev alias Merzmensch geht in seiner jüngsten Veröffentlichung KI-Kunst auf die unterschiedlichen Selektionsprozesse von Künstler*innen ein, die mit Künstlicher Intelligenz arbeiten – hier allerdings noch mit Blick auf bildgenerierende Modelle.37 Pointiert verweist Merzmensch darauf, dass das Narrativ »Bild per Knopfdruck« dem tatsächlichen kreativen Prozess keinesfalls gerecht werde und die »unzählige[n] Stunden mit Prompt-Design und Variationen« schlicht ignoriere.38 Ein gutes Beispiel für einen solchen kreativen Prozess im Bereich generativen Schreibens kommt aus der Slowakei – einem, mit Günter Vallaster, »Weltzentrum«39 für digitale Poesie: 2020 erscheint hier der Gedichtband Výsledky vzniku (deutsch: Ergebnisse der Entstehung) einer fiktiven Autorinstanz namens Liza Gennart und wird mit einem nationalen Lyrikpreis ausgezeichnet.40 Liza Gennart wird in der Folge nicht nur mit einer fiktiven Biografie vorgestellt (sie studierte Datenwissenschaften und deren Anwendung in der Literatur, widmet sich poetischen Experimenten und feministischem Schaffen), sondern auch mit ihren Eltern: L’ubomír Panák und Zuzana Husárová. Dahinter verbirgt sich ein reales slowakisches Künstlerpaar, das ein neuronales, lyrikgenerierendes Netzwerk (GPT-2) programmiert, anschließend auf den Namen Liza Gennart getauft hat und im Anschluss regelmäßig als ihr »drittes« Kind vorstellt – sich selbst hingegen wahlweise als Eltern oder als Autor*innen von Liza. Im Folgenden geht es mir weder um das konkrete Projektdesign noch um die bemerkenswerten Strategien dieser gedoppelten Autorschaftsinszenierung, sondern um den Textgenerierungsprozess, der die Rollen von Autor*innen und Leser*innen überblendet. In einem Interview zum Projekt erklärt das Künstlerpaar den Selektionsprozess, den die von Liza generierten Texte durchlaufen haben, bevor sie überhaupt Eingang in den veröffentlichten Text gefunden haben. So wurde Husárová gefragt, bei welchem der generierten Gedichte sie denn den Eindruck hatten, dass dies ein »wirklich gutes« sei.

ZH: Ich habe kein Gedicht, aber einen Vers: »Nackt möchte ich in deiner Uhr baden. « Das ist eine so komplexe Metapher – wo willst du baden? In dieser Uhr, zwischen dem Glas und den Zeigern, vor ihren Bewegungen fliehen oder mit ihnen zusammenstoßen? Oder schwimmend im metonymischen Raum der Zeit? Warum nackt und wie passt man nackt in eine Uhr? Was für eine Uhr? Irgendeine große oder bist du winzig klein? Und gleichzeitig ist das sehr romantisch, denn es ist dein Instrument zum Messen der Zeit und nicht meins. Das lyrische Ich möchte also in die Raumzeit eines anderen hinein, sie aber nicht erobern, nicht vereinnahmen, nur darin schwimmen, was auch immer das beim Leser für Assoziationen hervorruft. Das scheint mir gut zu sein.41

Bemerkenswert scheint mir (und das von Husárová beschriebene Selektionsverfahren fungiert stellvertretend für zahlreiche Beispiele generativer Literatur, die in der Regel bestimmten, auf die jeweiligen menschlichen Autor:innen zurückgehenden Auswahlprozessen unterliegen) –, dass die Künstlerin hier sehr detailliert einen hermeneutischen Prozess beschreibt, der für die finale Textgestalt verantwortlich ist und im Zuge dessen sie zunächst als Leserin, als Interpretin des generierten Textes fungiert. Vor allen anderen Leser*innen liest sie selbst den generierten Text, sucht ihn in seiner Mehrdeutigkeit zu verstehen und imaginiert dabei jene Fragen, die sich womöglich auch reale Leser*innen des Buches stellen würden. Deutlich wird: Die in den Ausführungen der Autorin sichtbar werdende und ausdrücklich adressierte implizite Leser*innen-Instanz ist keineswegs nur eine im Text angelegte abstrakte Instanz, sondern Resultat einer autorintentionalen Strategie. Hier wird nicht der*die Leser*in zum*zur Autor*in, sondern die Autorin zur ersten Leserin, deren subjektive Textselektion sowohl die Instanz des*der impliziten Lesers*Leserin als auch die finale Textgestalt der generierten Textauswahl autorintentional bestimmt.

Ein weiteres Beispiel liefert das Textexperiment Alpha Centauri in Ewigkeit, das die deutschen Autor*innen Jenifer Becker und Juan Guse im Auftrag der Neuen Rundschau unternommen haben:42 In Zusammenarbeit mit dem KI-basierten Chatbot ChatGPT und gemeinsam mit ihrem Lektor Albert Henrichs verfassten sie eine Kurzgeschichte. In die finale Textgestaltung, so lautete die einzige selbstauferlegte Handlungsanweisung, durfte lediglich mit Prompts eingegriffen werden, weitere editorische Bearbeitungen blieben aus. Mit der Kurzgeschichte wurden zwei begleitende Texte von Guse und Becker veröffentlicht, in denen sie auf den jeweiligen Arbeitsprozess eingehen. In ihrem Begleittext beschreibt Jenifer Becker, wie innerhalb der zweieinhalb Stunden, die sie mit dem Programm an der Kurzgeschichte gearbeitet hat, 180 Prompts und 100 Normseiten Textmaterial entstanden seien. Diese, so führt Becker aus, waren das Ergebnis einer intensiven Auseinandersetzung mit den generierten Texten, die genau gelesen, mittels Prompt (d.h. der natürlichsprachlichen Texteingabe) wieder bearbeitet und am Ende zu einer Kurzgeschichte »wie eine Collage zusammengesetzt«43 wurden. Nun lässt sich argumentieren, dass hier eine Form von Autorschaft vorliegt, wie sie auch konventionelle Schreibszenen charakterisiert: Schließlich produziert jede*r Autor*in in der Regel mehr Text, als im finalen Ergebnis ersichtlich wird und liest und überarbeitet die eigenen Texte ebenfalls im Laufe des Schreibprozesses. Diese Form der Auseinandersetzung mit dem selbst verfassten Text unterscheidet sich allerdings von der Lektürearbeit, die Autor*innen leisten, die mit generativen Sprachmodellen arbeiten und dabei zum einen zu Leser*innen nicht selbst geschriebener, sondern durch das Modell generierter Texte werden und zum anderen unter Umständen mit einer sehr umfangreichen und dabei in kürzester Zeit entstandenen Materialmenge zu tun haben. Die wiederholte Lektüre nicht selbst verantworteter Texte im kreativen Prozess kann dabei auch frustrierend ausfallen – gerade dann, wenn die KI-basierte Textgenese den autorintentionalen Strategien nicht entspricht. So jedenfalls empfindet Becker die Arbeit mit dem Sprachmodell:

ChatGPT fing an, sich an meine Sprache anzupassen. Dann entglitt alles wieder. Am Ende war ich frustriert, weil ich klare Vorstellungen von Sätzen und Begriffen hatte, die auftreten sollten, das System sie aber nicht so umsetzte, wie ich es wollte. Nachträglich empfinde ich dieses unkontrollierbare Moment als Kernstück in der Zusammenarbeit mit KI.44

Unmissverständlich wird Autorschaft hier auf mindestens zwei Instanzen verteilt, deren Kooperation nicht unbedingt reibungslos verläuft: Die autorintentionalen Strategien der menschlichen Autorinneninstanz (Becker) korrespondieren gerade nicht mit den Mechanismen der künstlichen Autorinstanz (des Systems). Das unkontrollierbare Moment, das Becker als (durchaus frustrierende) Erfahrung in Zusammenarbeit mit großen KI-Sprachmodellen beschreibt, beschäftigt auch Hannes Bajohr während der Genese seines KI-basierten Romans (Berlin, Miami) – auch er hält als zentrale Schreiberfahrung »eine zwangsläufige Kontrollabgabe an die Maschine«45 fest. Kontrollgewinn hingegen findet offenbar auf der Ebene der Rezeption statt – als hermeneutische Instanzen erweisen sich Autor*innen wie Leser*innen zumindest als deutlich origineller als das jeweilige Sprachmodell, das sich der Sinnsuche bzw. -findung im künstlich generierten Text zuweilen sogar verweigert. So berichtet Hannes Bajohr, wie das Sprachmodell Claude (Anthropic 2023), als er es auffordert, die Inhalte der ersten zwei Drittel seines bis dato KI-generieren Romans zusammenzufassen, scheitert: »Es tut mir leid, aber ich habe große Schwierigkeiten, den Inhalt und Zusammenhang dieser Geschichte zu verstehen. Vieles wirkt zusammenhanglos und wirr«46, zitiert Bajohr aus der ›Antwort‹ des Modells. Für sein eigenes Versagen hält Claude allerdings auch eine Erklärung bereit: »Möglicherweise ist diese Geschichte einer künstlichen Intelligenz wie mir einfach nicht zugänglich und auf menschliche Leser zugeschnitten.«47 Und so lautet die auf den ersten Blick paradox anmutende Erkenntnis, dass KI-generierte Texte ihr bestes Publikum in menschlichen Leser*innen finden – im besten Fall solche, die das Widerständige, Un-Sinnige und Nicht-Konsistente generierter Texte als besondere Herausforderung begreifen. Für Hannes Bajohr zumindest ist das die Einsicht, die ihn sein Romanexperiment gelehrt hat: »Offenbar habe ich als menschlicher, ohnehin immer meine Welt deutender Leser eine größere Toleranz für Unzusammenhängendes als Claude.«48

The Writer is the reader definiert damit ein Autorschaftsmodell, das die poststrukturalistische These vom »Tod des Autors« als Preis für die »Geburt des Lesers«49 nicht einfach weiterschreibt. Vielmehr haben wir es mit einer Emanzipation der (menschlichen) Autor*innen-Instanz in der Zusammenarbeit mit KI-basierten Sprachmodellen zu tun, die nicht zuletzt auf der Ebene der Rezeption als souveräne*r Leser*in stattfindet.

  • 1. Vgl. Jörg Piringer: datenpoesie. Klagenfurt 2018.
  • 2. Günter Vallaster: »IT-Poesie – wenn Computer dichten«, Poesiegalerie.at, 9. März 2021, https://www.poesiegalerie.at/ (zuletzt eingesehen am 26. März 2023); wordpress/2021/03/09/it-poesie-wenn-computer-dichten (zuletzt eingesehen am 26. März 2023).
  • 3. Ebd.
  • 4. Franziska Wilke: Digital lesen. Wandel und Kontinuität einer literarischen Praktik. Bielefeld 2022.
  • 5. Vgl. dazu: Hannes Bajohr: »Autorschaft und Künstliche Intelligenz«. In: Stephanie Catani (Hg.): Handbuch Künstliche Intelligenz und die Künste. Berlin u. a. 2024, S. 265–280; Leah Henrickson: Reading computer-generated texts. Cambridge 2021.
  • 6. Henrickson: Reading computer-generated texts, S. 4.
  • 7. Ebd., S. 5.
  • 8. Ross Goodwin: »Adventures in Narrated Reality, Part II. Ongoing experiments in writing & machine intelligence«, Medium.com, 9. Juni 2016, https://medium.com/artists-and-machine-intelligence/adventures-in-narrated-reality-part-ii-dc585af054cb (zuletzt eingesehen am 20. September 2023).
  • 9. Kurt Fend: »Leser auf Abwegen. Hypertext und seine literarisch-ästhetischen Vorbilder«. In: Roberto Simanowski (Hg.): Digitale Literatur (Text + Kritik, 152 (2001)), S. 87–98, hier S. 98.
  • 10. Ebd.
  • 11. Vgl. John Pier: »Between Text and Paratext. Vladimir Nabokovs ›Pale Fire‹«. In: Style 26.1 (1992), S. 12–32; Simon Rowberry: »Vladimir Nabokovs ›Pale Fire‹: The Lost ›Father of all hypertext demos‹?«. In: Proceedings of the 22nd ACM conference on Hypertext and hypermedia. New York 2011, S. 319–324.
  • 12. Theodor Holm Nelson: Literary Machines. Erw. Aufl. 87.1. Sausalito 1987, S. 30. Nelson hatte nach eigenen Angaben 1969 von Nabokovs Verlagshaus die Erlaubnis erhalten, seinen Roman für die Demonstration eines frühen Hypertext-Systems zu verwenden, die dann aufgrund einer Intervention von IBM nicht zustande kam.
  • 13. Vgl. Espen J. Aarseth: Cybertext. Perspectives on Ergodic Literature. London u. a. 1997, S. 42.
  • 14. Ebd., S. 1f.
  • 15. Italo Calvino: »Kybernetik und Gespenster (1967)«. In: Ders. (Hg.): Kybernetik und Gespenster. Überlegungen zu Literatur und Gesellschaft. Übers. v. Susanne Schoop. Wien u. a. 1984, S. 7–26, hier S. 17.
  • 16. Ebd.
  • 17. Vgl. Ross Goodwin (Writer of Writer): 1 the Road. By an Artificial Neural Network. Paris 2018. Goodwins Roman hat nicht nur als (vermeintlich) erster vollständig KI-generierter Roman – so jedenfalls wird er auf dem Buchcover beworben – für Aufmerksamkeit gesorgt. Vielmehr ist das Spannende an diesem Experiment, dass das Projektdesign auf spezifische ›Wahrnehmungsprozesse‹ des Neuronalen Netzwerks ausgerichtet ist, deren Ergebnis der literarische Output erst darstellt. Die Versuchsanlage simuliert dabei eine Autorschaft des verwendeten Netzwerks: Die sprach- und textgenerierenden Modelle nutzen (und zitieren damit kanonische US-amerikanische Autoren wie Thomas Wolfe, Jack Kerouac oder Ken Kesey) die Erfahrung des ›Unterwegs-Seins‹ und damit verbundene sensorische Erfahrungen als Schreibmotor. Vgl. Stephanie Catani: »Generierte Texte. Gegenwartsliterarische Experimente mit Künstlicher Intelligenz«. In: Andrea Bartl, Corina Erk u. Jörn Glasenapp (Hg.): Schnittstellen. Wechselbeziehungen zwischen Literatur, Film, Fernsehen und digitalen Medien. Paderborn 2022, S. 247–266, hier S. 258–262. Dass die dabei von Goodwin eingeführte Selbstbezeichnung »Writer of Writer« und die Behauptung einer »alleinigen KNN-Autorschaft« den tatsächlich entscheidenden Einfluss von Goodwin auf das Endergebnis eher verschleiern, hat Hannes Bajohr angemerkt, vgl. Hannes Bajohr: »Künstliche Intelligenz und digitale Literatur. Theorie und Praxis konnektionistischen Schreiben«. In: Ders. u. Annette Gilbert (Hg.): Digitale Literatur II. München 2021, S. 174–185, hier S. 175.
  • 18. Goodwin: »Adventures in Narrated Reality«.
  • 19. Das Video zum Projekt findet sich hier: https://vimeo.com/394544451 (zuletzt eingesehen am 10. Juli 2023). Ein Künstlerinterview, Bilder und weitere Informationen zum Projekt finden sich auf den Online-Seiten der Ars Electronica unter: https://ars.electronica.art/keplersgardens/de/artist-talk-mario-klingemann/ (zuletzt eingesehen am 20. September 2023).
  • 20. Zu Appropriate Response als Beispiel einer postdigitalen Kritik durch generative Kunst vgl. Stephanie Catani: »Art is the only ethical use of AI«. In: Marlene Meuer, Markus Kersten u. Sarah Hegenbart (Hg.): Generative Kunst zwischen Begrenzung und Entgrenzung. In: Grenzen der Künste im digitalen Zeitalter. Berlin u. a. 2024 [im Druck].
  • 21. https://vimeo.com/394544451 (TC: 00:05:45).
  • 22. Ebd. (TC: 00:06:30).
  • 23. Hannes Bajohr: (Berlin, Miami). Roman. Berlin 2023.
  • 24. Harald Staun: »Das kommt dabei heraus, wenn KI einen Roman schreiben soll«, FAZ.net, 4. November 2023, https://www.faz.net/aktuell/feuilleton/buecher/rezensionen/belletristik/herrlich-gescheitert-hannes-bajohrs-ki-roman-berlin-miami-19286704.html (zuletzt eingesehen am 15. Dezember 2023).
  • 25. Bajohr: (Berlin, Miami), S. 239.
  • 26. Ebd.
  • 27. Ebd., S. 266.
  • 28. Vgl. Wolfgang Iser: Der Akt des Lesens. Theorie ästhetischer Wirkung. München 1976, S. 270–272.
  • 29. Vgl. Simone Winko: »Hyper-Text-Literatur. Digitale Literatur als Herausforderung an die Literaturwissenschaft«. In: Harro Segeberg u. Simone Winko (Hg.): Digitalität und Literalität. Zur Zukunft der Literatur im Netzzeitalter. München 2005, S. 137–157. Vgl. dazu auch Franziska Wilkes Unterscheidung zwischen dem Quellcode als »Aufschluss über die Komplexität der Nutzungsangebote (process intensity)« und der typographischen Gestaltung des Oberflächentextes. Wilke: Digital lesen, S. 47–49.
  • 30. Auf den Unterschied zwischen dem »ausführenden und […] durch Ausführung geschaffenen« Text hat Hannes Bajohr im Gespräch mit Kathrin Passig und Philipp Schönthaler hingewiesen. Vgl. Hannes Bajohr, Kathrin Passig u. Philipp Schönthaler: »Nichts als Hybride. Ein Gespräch über ›Digitale Literatur‹ mit Hannes Bajohr, Kathrin Passig und Philipp Schönthaler«. In: Transistor 2 (2019), S. 18–29, hier S. 20.
  • 31. Martin Stobbe: »Quellcode lesen? Ein Plädoyer für Procedural Literacy in den Literaturwissenschaften«. In: Sebastian Böck u. a. (Hg.): Lesen X.0. Rezeptionsprozesse in der digitalen Gegenwart. Göttingen 2017, S. 47–67, hier S. 47.
  • 32. https://badquar.to/publications/hard_west_turn.html (zuletzt eingesehen am 20. November 2023).
  • 33. Roman Jakobson: »Linguistik und Poetik (1960)«. In: Elmar Holenstein u. Tarcisius Schelbert (Hg.): Poetik. Ausgewählte Aufsätze 1921-1971. Frankfurt a. M. 1979, S. 83–121, hier S. 110.
  • 34. Roman Ingarden: »Vom Erkennen des literarischen Kunstwerks«. In: Roman Ingarden: Gesammelte Werke. Hg. v. Rolf Fieguth u. Guido Küng. Bd. 13. Tübingen 1997, S. 77.
  • 35. Bajohr: (Berlin, Miami), S. 261.
  • 36. Ebd.
  • 37. Vgl. Merzmensch: KI-Kunst. Kollaboration von Mensch und Maschine. Berlin 2023.
  • 38. Vgl. ebd., Kap. 2 (Technologie).
  • 39. Vallaster: »IT-Poesie – wenn Computer dichten«.
  • 40. Liza Gennart: Výsledky vzniku. Košice 2020.
  • 41. Gabriela Čepičanová: »Poetischer Algorithmus. ›Liza ist in mancherlei Hinsicht eine Romantikerin‹. Gespräch mit Ľubomír Panák und Zuzana Husárová. Übersetzt von Marie-T. Cermann«. In: Jádu. Deutsch-tschechisch-slowakisches Onlinemagazin vom Dezember 2020, https://www.goethe.de/prj/jad/de/the/ari/22055164.html (zuletzt eingesehen am 30. November 2023).
  • 42. Vgl. Jenifer Becker u. Juan Guse: »Alpha Centauri in Ewigkeit«. In: Neue Rundschau 134.4 (2023), S. 19–30, online unter: https://www.fischerverlage.de/magazin/neue-rundschau/alpha-centauri-ewigkeit (zuletzt eingesehen am 10. Dezember 2023).
  • 43. Ebd.
  • 44. Ebd.
  • 45. Bajohr: (Berlin, Miami), S. 243f.
  • 46. Ebd., S. 258.
  • 47. Ebd.
  • 48. Ebd., S. 258f.
  • 49. Roland Barthes: »Der Tod des Autors«. In: Fotis Jannidis u. a. (Hg.): Texte zur Theorie der Autorschaft. Stuttgart 2000, S. 185–193, hier S. 193.

Add comment