-
DamonWilder authoredDamonWilder authored
vernetzung_2015.xml 97.44 KiB
<?xml version="1.0" encoding="UTF-8"?>
<?xml-model href="http://www.zfdg.de/sites/default/files/schema/tei_zfdg.rnc" type="application/relax-ng-compact-syntax"?>
<TEI xmlns="http://www.tei-c.org/ns/1.0" xmlns:html="http://www.w3.org/1999/html"
xmlns:tei="http://www.tei-c.org/ns/1.0" xmlns:xlink="http://www.w3.org/1999/xlink"
xmlns:xhtml="http://www.w3.org/1999/xhtml">
<teiHeader>
<fileDesc>
<titleStmt>
<title>
<biblStruct>
<analytic>
<title level="a">Die Vernetzung des Textes: Im Möglichkeitsraum
digitaler Literaturanalyse</title>
<respStmt>
<resp>
<persName>
<name role="marc_aut">
<forename>Christine</forename>
<surname>Ivanovic</surname>
</name>
<email>christine.ivanovic@univie.ac.at</email>
<idno type="gnd">115731776</idno>
<idno type="orcid"/>
</persName>
</resp>
<orgName>Abteilung für Vergleichende Literaturwissenschaft an der
Universität Wien, Institut für Corpuslinguistik und
Texttechnologien (ICLTT) der Österreichischen Akademie der
Wissenschaften (ÖAW)</orgName>
</respStmt>
<idno type="doi">10.17175/2016_010</idno>
<idno type="ppn">868714151</idno>
<idno type="zfdg">2016.010</idno>
<idno type="url">http://www.zfdg.de/2016_010</idno>
<date when="2017-02-10">10.02.2017</date>
</analytic>
<monogr>
<title level="j">Zeitschrift für digitale Geisteswissenschaften</title>
<respStmt>
<resp>Publiziert von</resp>
<orgName role="marc_pbl">Herzog August Bibliothek</orgName>
</respStmt>
<respStmt>
<resp>Transformation der Word Vorlage nach TEI</resp>
<persName/>
<name role="marc_trc">
<surname>Steyer</surname>
<forename>Timo</forename>
<idno type="gnd">1053806175</idno>
</name>
</respStmt>
<respStmt>
<resp>Übersetzung des Abstract ins Englische</resp>
<name role="marc_trl">
<forename>Kathleen Marie</forename>
<surname>Smith</surname>
</name>
</respStmt>
<availability status="free">
<p>Available at <ref target="http://www.zfdg.de"
>http://www.zfdg.de</ref>
</p>
</availability>
<biblScope unit="year">2016</biblScope>
<biblScope unit="artikel">10</biblScope>
</monogr>
</biblStruct>
</title>
</titleStmt>
<editionStmt>
<edition>Elektronische Ausgabe nach TEI P5</edition>
</editionStmt>
<publicationStmt>
<distributor>
<name>
<orgName>Herzog August Bibliothek Wolfenbüttel</orgName>
</name>
</distributor>
<date when="2017-02-10">10.02.2017</date>
<!-- Normdaten der Zeitschrift -->
<idno type="doi">10.17175/zfdg.01</idno>
<authority>
<name>Herzog August Bibliothek</name>
<address>
<addrLine>Lessingplatz 1</addrLine>
<addrLine>38304 Wolfenbüttel</addrLine>
</address>
</authority>
<authority>
<name>Forschungsverbund MWW</name>
<address>
<addrLine>Wallotstraße 19</addrLine>
<addrLine>14193 Berlin</addrLine>
</address>
</authority>
<availability status="free">
<p> Sofern nicht anders angegeben </p>
<licence target="http://creativecommons.org/licenses/by/4.0/">CC BY SA
4.0</licence>
</availability>
<availability status="free">
<p> Available at <ref target="workID">http://www.zfdg.de; (c) Forschungsverbund
MWW</ref>
</p>
</availability>
</publicationStmt>
<sourceDesc>
<p>Einreichung als Fachartikel in der ZfdG durch die Autoren</p>
</sourceDesc>
</fileDesc>
<encodingDesc>
<editorialDecl>
<p>Transformation der WORD-Vorlage nach XML/TEI-P5 durch TEI-Oxgarage und
XSLT-Skripten</p>
</editorialDecl>
<editorialDecl>
<p xml:lang="de">Lektorat des Textes durch die Redaktion in Person von
<persName>Constanze Baum</persName>.</p>
</editorialDecl>
<editorialDecl>
<p>Medienrechte liegen bei den Autoren</p>
</editorialDecl>
<editorialDecl>
<p>All links checked<date when="2017">10.02.2017</date>
</p>
</editorialDecl>
</encodingDesc>
<profileDesc>
<creation>Einreichung als Artikel der Zeitschrift für digitale
Geisteswissenschaften</creation>
<langUsage>
<language ident="de">Text in Deutsch</language>
<language ident="en">Abstract in English</language>
</langUsage>
<textClass>
<keywords scheme="gnd">
<term><ref target="4036034-9">Literaturwissenschaft</ref></term>
<term><ref target="1038714850">Digital Humanities</ref></term>
<term><ref target="4688372-1">Semantic Web</ref>
</term>
</keywords>
</textClass>
</profileDesc>
<revisionDesc>
<change/>
</revisionDesc>
</teiHeader>
<text>
<body>
<div>
<div type="abstract">
<argument xml:lang="de">
<p>Die Digitalisierung von Texten, die Erarbeitung komplexer digitaler
Editionen und die Herstellung maschinell analysierbarer Korpora sind
Hauptaufgaben gegenwärtiger digitaler Philologie. Diese baut vielfach
auf Methoden und Erkenntnissen auf, wie sie in der Computerlinguistik
seit Jahrzehnten erprobt werden. Sie müssen jedoch für die Anforderungen
der literaturwissenschaftlichen Analyse beispielsweise in ihrer
Granularität angepasst werden. Der Beitrag skizziert mögliche
Vorgehensweisen bei der digitalen Verarbeitung großer Textmengen
respektive der Entwicklung komplexer Annotationsverfahren. Sie verändern
die Ausgangssituation philologischer Forschung noch weiter, wenn die
Texte im Internet verfügbar sind. Daher werden in einem zweiten Schritt
die daraus sich ergebenden neuen Möglichkeiten der Analyse literarischer
Texte diskutiert. Neben der Entwicklung von Verfahren zur systematischen
und nachprüfbaren Literaturanalyse großer Textkorpora geht es dabei um
die Darstellung der Mehrdimensionalität literarischer Texte durch
Datenverknüpfung im Semantic Web. Literarische Texte können dadurch auch
anderen Disziplinen zur Evaluierung zugänglich gemacht werden. </p>
</argument>
<argument xml:lang="en">
<p>The main tasks of contemporary digital philology are the digitization of
texts, the development of complex digital editions, and the creation of
text corpora that can be analyzed by machines. These activities build on
methods and findings that have been explored in computer linguistics for
decades. There is, however, a need to adapt those procedures to the
requirements of literary analysis, such as in their granularity. This
paper outlines possible approaches for the digital processing of large
volumes of text and for the development of complex annotation processes.
These methods change the very basis of literary analysis, especially if
the texts are available on the internet. The next step, therefore, is to
discuss the new possibilities for the analysis of literary text that
arise from this situation. These possibilities go beyond the mere
development of procedures for systematic and verifiable literary
analysis of large text corpora. One new step, for example, would be the
representation of multi-dimensional qualities of literary texts by data
linkage in the Semantic Web, which could make literary texts available
for other disciplines as well.</p>
</argument>
</div>
<div type="chapter">
<p><quote type="motto">Il faut confronter les idées vagues avec des images
claires</quote> – Jean-Luc Godard, 1967 (<quote>La Chinoise</quote>)</p>
<p><quote type="motto">Alles, was Gegenstand wissenschaftlichen Denkens
überhaupt sein kann, verfällt, sobald es zur Bildung einer Theorie reif
ist, der axiomatischen Methode und damit mittelbar der
Mathematik.</quote> – <ref type="bibliography"
target="#hilbert_denken_1970">David Hilbert, 1918</ref></p>
</div>
<div type="chapter">
<head>1. Vom Wörterzählen zur Datenvernetzung</head>
<p>Zwei Wege führen an den Punkt, wo sich die Computerphilologie heute befindet:
Der eine geht auf eine Initiative des Jesuitenpaters Roberto Busa zurück,
der zwischen 1940 und 1947 gemeinsam mit IBM Gründer Thomas J. Watson eine
computergestützte Lemmatisierung der Werke von Thomas von Aquin vornahm und
mit dem <bibl>
<title type="desc">Index Thomisticus</title>
</bibl> das früheste Beispiel digitaler Textanalyse vorlegte (seit 2005
online verfügbar<note type="footnote">
<ref target="http://www.corpusthomisticum.org/it/index.age"
>http://www.corpusthomisticum.org/it/index.age</ref>.</note>). Bis
zu seinem Tod 2011 verfolgte Buso den Ansatz computergestützter Hermeneutik
und Lexikographie. In Deutschland bemühte sich der Philosoph Max Bense um
die Einbeziehung von Informationstheorie und Computertechnik in seine
Analysen der Strukturen von Sprache.<note type="footnote">
<ref type="bibliography" target="#bense_theorie_1962">Bense 1962</ref>;
<ref type="bibliography" target="#bense_einfuehrung_1969">Bense
1969</ref>.</note> In England versuchte der aus Südafrika
eingewanderte Mathematiker und spätere Literaturnobelpreisträger J.M.
Coetzee an die stilometrischen Analysen des deutschen Physikers Wilhelm
Fucks anzuknüpfen, der in den fünfziger Jahren quantitative Methoden in
Literaturwissenschaft und Linguistik eingeführt hatte.<note type="footnote">
<ref type="bibliography" target="#fucks_analyse_1955">Fucks
1955</ref>.</note> In seiner Dissertation von 1969 legte Coetzee
erstmals stilometrische Analysen der englischen Texte von Samuel Beckett mit
mathematischen Methoden vor.<note type="footnote">
<ref type="bibliography" target="#coetzee_fiction_1969">Coetzee
1969.</ref></note>
</p>
<p>Der andere Weg kommt aus der langen Geschichte der Editionsphilologie. Die
ersten digitalen Editionen entstanden Anfang der neunziger Jahre mit der
kommerziellen Verbreitung der CD-ROM; erstmals war ein mobiler Datenträger
gefunden worden, der genug Speichervolumen für ein ganzes Buch mit
Anmerkungen (oder für 74 Minuten Musik) aufwies. Eines der frühesten
Projekte war die Digitalisierung der Buchausgabe der Colli/Montinari-Edition
der Werke Nietzsches, die der Verlag de Gruyter 1994–1997 auf CD-ROM
herausbrachte und die inzwischen online zugänglich ist.<note type="footnote">
<ref target="http://www.nietzschesource.org/documentation/de/eKGWB.html"
>http://www.nietzschesource.org/documentation/de/eKGWB.html</ref>.</note>
Eines der jüngsten ist die ebenfalls online einsehbare 3D-Ausgabe der Ogham
Stones durch das <term type="corporate" ref="https://www.dias.ie/">Dublin
Institute of Advanced Studies</term>; es handelt sich um ein irisches
Nationaldenkmal und einmaliges Zeugnis einer frühen Stufe der irischen
Sprache und ihres Alphabets, das als Inschrift auf Steinen überliefert
ist.<note type="footnote"><ref
target="https://ogham.celt.dias.ie/menu.php?lang=en"
>https://ogham.celt.dias.ie/menu.php?lang=en</ref>. Zur
Entwicklungsgeschichte digitaler Editionen vgl. auch <ref
target="http://www.digitale-edition.de/"
>http://www.digitale-edition.de</ref>.</note>
</p>
<p>Digitale literaturwissenschaftliche Projekte sind mehrheitlich Editionen, die
sich nun in den, wie oft betont wird, <quote>schier unbegrenzten</quote>
Speicherraum des World Wide Web ausdehnen. Neben exklusiven, aufwendig
erstellten kritischen digitalen Ausgaben repräsentativer Werke<note
type="footnote"> Als ein Beispiel sei hier die Klagenfurter Ausgabe der
Werke Robert Musils genannt (<ref type="bibliography"
target="#musil_ausgabe_2009">Musil 2009</ref>). Vgl. dazu <ref
type="bibliography" target="#salgaro_ausgabe_2014">Salgaro
2014</ref>.</note> werden heute in großem Umfang Digitalisierungen
ganzer Bibliotheken durchgeführt, um wertvolle Altbestände zu erhalten oder
um große Korpora für die Öffentlichkeit zugänglich zu machen.<note
type="footnote">
<ref type="bibliography" target="#lauer_vermessung_2013">Lauer
2013</ref>; <ref type="bibliography"
target="#lauer_weltbibliothek_2014">Lauer 2014</ref>.</note>
Motivation, Organisation, technische Durchführung und Nutzungskonzepte
können dabei stark variieren.<note type="footnote"> Das Spektrum reicht von
der mit <term type="corporate"
ref="https://www.deutsche-digitale-bibliothek.de/">Deutschen
Digitalen Bibliothek</term>18.098.542 Objekten (davon 6.129.980 mit
Digitalisat) über das <ref target="http://www.deutschestextarchiv.de/"
>Deutsche Textarchiv</ref> mit 474 326 digitalisierten Seiten bis
zum <ref target="http://www.zvdd.de/">zentralen Verzeichnis
digitalisierter Drucke</ref>, das derzeit 1.339.130 Titel
registriert, um nur einige Beispiele aus dem deutschsprachigen Raum zu
nennen. Eine repräsentative Auswahl verzeichnet die <ref
target="http://glc.chadwyck.com/">German Literature
Collection</ref>, über die einschlägige Werkausgaben von Goethe,
Schiller, Kafka und Brecht, sowie <quote>Die deutsche Lyrik</quote>
(basierend auf Ausgaben aus Reclams Universalbibliothek) und
<quote>Deutsche Klassiker</quote> (basierend auf der Bibliothek
Deutscher Klassiker) abgerufen werden können. Für die wissenschaftliche
Analyse bereits mit XML/TEI erschlossene Texte findet man als Digitale
Bibiothek im <ref target="https://textgrid.de/Digitale-Bibliothek"
>TextGrid Repository</ref>.</note> Wichtige Korpora wurden und
werden von nationalen Institutionen in Auftrag gegeben und verwaltet;<note
type="footnote"> In Österreich wäre beispielweise das AAC zu nennen, das
vom ICLTT an der ÖAW erstellt wurde <ref
target="http://corpus1.aac.ac.at/fackel/"
>http://corpus1.aac.ac.at/fackel/</ref>.</note> daneben gibt es die
digitale Texterfassung durch Freiwillige<note type="footnote">
<ref target="http://gutenberg.spiegel.de/"
>http://gutenberg.spiegel.de/</ref>.</note> oder durch Firmen. So
hat Google einen immensen und teilweise frei zugänglichen Datenbestand mit
Unterstützung zahlreicher Universitätsbibliotheken aufgebaut.<note
type="footnote"><ref target="https://books.google.com/"
>https://books.google.com/</ref>. Vgl. auch die Textscans, die der
<ref target="https://www.hathitrust.org/">Hathi Trust</ref> online
gestellt hat.</note> Datenerhalt und Archivierung großer Textmengen
sowie leichtere Zugänglichkeit, Durchsuchbarkeit und bessere Auffindbarkeit
von Textstellen sind die Vorzüge der Anwendung digitaler Methoden in diesem
Bereich.</p>
<p>Obwohl schon vor mehr als einem halben Jahrhundert vielfältige Ansätze dazu
gemacht wurden,<note type="footnote"> Vgl. neben den Ansätzen bei den oben
genannten Autoren auch noch <ref type="bibliography"
target="#kenny_computation_1982">Kenny 1982</ref>. Auch er kommt wie
Busa aus kirchlichem Kontext.</note> hat sich die Literaturwissenschaft
im Gegensatz zur statistischen Sprachanalyse, wie sie in der
Computerlinguistik weit fortgeschritten ist, in der Anwendung von
Informationstechnologie bei der Textanalyse, geschweige denn bei der
Institutionalisierung einer ›Computerliteraturwissenschaft‹ bisher eher
zurückhaltend gezeigt.<note type="footnote"> Die Entwicklung von Methoden
digitaler Literaturanalyse und die Anzahl einschlägiger Publikationen
hat sich seit Beginn dieses Jahrhunderts allerdings rapide entwickelt.
Das im Wintersemester 2011/2012 an der <term type="corporate"
ref="http://www.uni-goettingen.de/">Universität Göttingen</term>
entstandene <ref
target="http://litre.uni-goettingen.de/index.php/Hauptseite">Wiki
zur digitalen Textanalyse</ref> beschreibt aus den schon zur
Verfügung stehenden Tools zur digitalen Textanalyse eine Auswahl von
acht. Die 2011 vom <term type="corporate"
ref="http://www.cceh.uni-koeln.de/">Cologne Center for eHumanities
(CCeH)</term> herausgegebene Broschüre <ref
target="http://dig-hum.de/sites/dig-hum.de/files/cceh_broschuereweb.pdf "
>Digitale Geisteswissenschaften</ref> skizziert zwar einschlägige
Studiengänge an bereits 13 Studienorten, darunter aber noch kein
Programm mit explizitem Schwerpunkt auf der Literatur(analyse).
Lediglich die <term type="corporate" ref="https://www.tu-darmstadt.de/"
>TU Darmstadt</term> bot damals einen MA Studiengang
<quote>Linguistic and Literary Computing</quote> (jedoch ohne
speziellen Bezug zur Literaturanalyse) an. Am nähesten kommen diesem
Interesse bisher die an der <term type="corporate"
ref="https://www.uni-wuerzburg.de/startseite/">Universität
Würzburg</term> angebotenen BA und MA Studiengänge <quote>Digital
Humanities</quote>.</note> Bei der digitalen Edition ist die
Verankerung in einer traditionellen textphilologischen Teildisziplin
unübersehbar. Hier kann die digitale Technologie nicht nur jene Prozesse
unterstützen und vereinfachen, die zuvor in mühsamer Handarbeit durchgeführt
werden mussten. Sie kann auch dazu beitragen, neue Formate für die
Erfassung, Darstellung und Analyse der Mehrschichtigkeit textueller
Strukturen zu erarbeiten. Dementsprechend präsent, gefördert und anerkannt
sind die einschlägigen Projekte im Feld der Digital Humanities.<note
type="footnote"> Zu verweisen ist hier im Besonderen auf die speziell
für die Geisteswisenschaften eingerichteten Forschungsumgebungen <ref
target="https://textgrid.de/">TextGrid</ref> (gefördert 2006–2105)
sowie als deren Nachfolgerin die Digitale Forschungsinfrastruktur für
die Geistes- und Kulturwissenschaften <ref
target="http://www.dariah.eu/">DARIAH-EU</ref> bzw.
DARIAH-DE.</note>
</p>
<p>Wie wäre weiter vorzugehen? Der Beitrag schlägt einen Weg vor, der die
digitale Texterfassung mit den Methoden korpusbasierter Analyse enger
zusammenführt. Dabei gehe ich vor allem auf die mit dem World Wide Web
gegebenen Möglichkeiten ein. Mit dem Internet liegt ein potentielles Medium
der Erkenntnisgewinnung vor: erstens ist es ein immenser, weithin
zugänglicher Datenspeicher, und zweitens bietet es mit der Verknüpfbarkeit
von Dokumenten die Möglichkeit, die Verweisstruktur von Texten auf neue
Weise sichtbar zu machen. Es erlaubt mittels Datenvernetzung eine
Darstellung der von Derrida fokussierten <quote>differentiellen Verweisung
von einer [Text]Spur auf die andere</quote><note type="footnote">
Derridas im Gespräch formulierte Darstellung der Grundidee
(literaturwissenschaftlicher) Dekonstruktion war Ausgangspunkt der im
Folgenden entwickelten Überlegungen. Daher soll sie hier noch einmal im
Zusammenhang zitiert werden: <quote>Das, was ich also Text nenne, ist
alles, ist praktisch alles. Es ist alles, das heißt, es gibt einen
Text, sobald es eine Spur gibt, eine differentielle Verweisung von
einer Spur auf die andere. Und diese Verweise bleiben nie stehen. Es
gibt keine Grenzen der differentiellen Verweisung einer Spur auf die
andere. Eine Spur ist weder eine Anwesenheit noch eine Abwesenheit.
Folglich setzt dieser neue Begriff des Textes, der ohne Grenzen ist
ich habe deshalb gesagt, auch als scherzhafte Bemerkung, es gäbe
kein Außerhalb des Textes -, folglich setzt dieser neue Begriff des
Textes voraus, daß man in keinem Moment etwas außerhalb des
Bereiches der differentiellen Verweisungen fixieren kann, das ein
Wirkliches, eine Anwesenheit oder eine Abwesenheit wäre, etwas, das
nicht es selbst wäre, markiert durch die textuelle différance, durch
den Text als différance mit einem ›a‹.</quote> (zit. nach <ref
type="bibliography" target="#engelmann_randgaenge_1988">Engelmann
1988</ref>, S. 107f.) Zur Auseinandersetzung mit Derrida im Kontext
der Digital Humanities vgl. u.a. <ref type="bibliography"
target="#baillot_reconstruire_2015">Baillot 2015</ref>.</note> im
mehrdimensionalen Raum und bietet damit weitreichende Möglichkeiten für eine
Literaturanalyse, die außer von der Literaturwissenschaft auch von anderen
Disziplinen effektiv genutzt werden könnten.</p>
</div>
<div type="chapter">
<head>2. Das World Wide Web als Möglichkeitsraum digitaler
Literaturanalyse</head>
<p>Dem vor etwas mehr als 25 Jahren geschaffenen und stetig erweiterten
digitalen Datenraum des World Wide Web (Netzes)<note type="footnote">
<ref type="bibliography" target="#berners_web_1999">Berners-Lee /
Fischetti 1999</ref>.</note> werden unter anderem folgende
Eigenschaften zugeschrieben:</p>
<list type="unordered">
<item>unbegrenzte Kapazität für langfristige Speicherung von Daten;</item>
<item>unbegrenzte Verfügbarkeit der Daten in Raum und Zeit; im Prinzip ist
es technisch möglich jederzeit von jedem Ort der Erde auf jedes Dokument
zuzugreifen;</item>
<item>freie Zugänglichkeit (open access) für eine große Menge von Daten,
Tendenz steigend.</item>
</list>
<p>Das Netz stellt kein statisches Archiv dar, sondern einen virtuellen
Speicherraum, der permanent neu organisiert wird. Die dabei vorgenommenen
Operationen bewirken </p>
<list type="unordered">
<item>die anhaltende Evolution des World Wide Web durch beständige
Erweiterung respektive Veränderung der schon vorhandenen Daten; jeder
kann Daten eingeben oder, sofern diese zugänglich sind, bestehende Daten
verändern;</item>
<item>die Generierung separat evaluierbarer Metadaten;</item>
<item>die Bildung der Netzstruktur durch Verknüpfung der Daten
untereinander.</item>
</list>
<p>Prinzipielle Offenheit und unvergleichliche Kapazität des World Wide Web
einerseits, die permanent weiter entwickelte Vielfalt und Variabilität der
darauf bezogenen Operationen andererseits, legen es nahe zu überlegen, ob
und inwieweit die Daten im World Wide Web einen neuartigen Möglichkeitsraum
für die Literaturanalyse bilden, in dem sich die mehrdimensionale Vernetzung
literarischer Texte anders als bisher aufzeigen, darstellen und erforschen
lässt. Ansätze zur Visualisierung literaturwissenschaftlich relevanter Daten
im Netz sind schon partiell erprobt worden und werden zunehmend weiter
entwickelt.<note type="footnote"> So gibt es beispielsweise im Bereich
der Erforschung von Stadt(-literatur) schon diverse Darstellungen im
Netz. Vgl. neben dem von Barbara Piatti u.a. erarbeiteten <ref
target="http://www.literaturatlas.eu/">Literaturatlas Europas</ref>,
das von Todd Presner und anderen an der UCLA betriebene Projekt <ref
target="http://www.hypercities.com/">Hypercities</ref> oder eine
typische Sammlung von stadtbezogener Literatur, hier zu <ref
target="http://www.ed.ac.uk/schools-departments/literatures-languages-cultures/english-literature/research-activities/palimpsest/overview"
>Edinburgh</ref>.</note> Eine Evaluierung der mit dem World Wide Web
verbundenen Möglichkeiten wissenschaftlicher Analyse literarischer Texte
hingegen steht noch aus. Im folgenden sollen bereits erprobte Verfahren wie
auch absehbare Perspektiven einer durch die digitale Textverarbeitung
unterstützten, netzbasierten Literaturwissenschaft skizziert werden, wobei
der Schwerpunkt meiner Überlegungen auf der Verknüpfung von Daten liegt.</p>
</div>
<div type="chapter">
<head>3. Texte im Netz</head>
<p>Ein – überraschend kleiner – Teil der im Netz mittels Informationstechnologie
erzeugten und verwalteten Daten stammt aus Texten in natürlichen Sprachen.
Literaturwissenschaftlich im engeren Sinne relevant sind</p>
<list type="unordered">
<item>Digitalisate, d.h. (literarische) Texte, die ursprünglich in anderen
Formaten ediert wurden und weiter existieren, die nun zusätzlich im Netz
verfügbar gemacht werden (DTA, Gutenberg, Google Books u.a.); nicht alle
dieser Digitalisate sind schon maschinenlesbar, vielfach handelt es sich
um Textscans;</item>
<item>Digitale Literatur, d.h. (literarische) Texte, die ursprünglich in
digitaler Form verfasst und ins Netz gestellt wurden; das Spektrum
reicht von Weblogs über Netzliteratur(-magazine) bis zu hochgradig
verlinkten Formen wie Hyperfiktion;<note type="footnote"> Vgl. dazu u.a.
<ref type="bibliography" target="#herring_weblogs_2005">Herring
et al. 2005</ref>; <ref type="bibliography"
target="#suter_hyperfiction_2000">Suter 2000</ref>; <ref
type="bibliography" target="#suter_hyperfiction_2001">Böhler
2001</ref>; <ref type="bibliography"
target="#giacomuzzi_literaturmagazine_2012">Giaccomuzzi
2012</ref>.</note>
</item>
<item>Texte und weitere Daten (Bilder, Sounddateien u.a.), die
literaturwissenschaftlich relevante Informationen enthalten;
traditionelle Hilfsmittel wie Wörterbücher, biographische Lexika,
Bibliographien, Enzyklopädien und andere Nachschlagewerke finden sich
heute zunehmend durch Internetdatenbanken wie Wikipedia ersetzt.</item>
</list>
<p>Die Anzahl der im Netz verfügbaren und literaturwissenschaftlich
evaluierbaren Texte nimmt rapide zu. Texte, die bisher mangels
Zugänglichkeit kaum wissenschaftliche Berücksichtigung gefunden haben, wie
zum Beispiel nicht-kanonisierte Texte, Literaturen in ›kleinen‹ Sprachen,
Texte in entlegenen, vergriffenen oder vergessenen Ausgaben etc., werden
zunehmend greifbar und sollten in einschlägige Untersuchungen einbezogen
werden. Damit entsteht ein enormer Druck auf die Philologien, die an der
Textbasis veränderte Ausgangslage ihrer Forschungen zur Kenntnis zu nehmen
und ihr methodisch zu entsprechen.</p>
<p>Untersuchungen, die allgemeine Aussagen beispielsweise zu einer Epoche, zu
einer Gattung, oder zur Literatur einer Sprache machen wollen (als
Standardbeispiel: <quote>Der englische Roman des 19. Jahrhunderts</quote>)
müssen sich heute nicht mehr nur auf die schon bekannten respektive
kanonisierten Texte beschränken, sondern können die bisherigen Erkenntnisse
an großen Korpora überprüfen und weiter ausdifferenzieren. Trotz der
zunehmenden Verfügbarkeit von Texten im Netz repräsentieren die vorhandenen
Daten allerdings noch lange nicht das gesamte Spektrum der in der
Literaturwissenschaft zu untersuchenden Literaturen. Restringiert bleibt
weiterhin der Zugang insbesondere zu urheberrechtlich geschützten Werken und
damit zum größten Teil der Literatur des 20. und 21. Jahrhunderts. Digitale
Literaturanalysen stützen sich deshalb bisher mehrheitlich auf vor 1900
erschienene Texte.</p>
<p>Gleichwohl werden Untersuchungen zur Gegenwartsliteratur die Webpräsenz
zeitgenössischer Texte nicht ignorieren können. Dies betrifft Autoren und
Autorinnen wie Elfriede Jelinek, die ihre Texte primär im Netz
veröffentlichen,<note type="footnote">
<ref target="http://www.elfriedejelinek.com/"
>http://www.elfriedejelinek.com/</ref>.</note> ebenso wie mit
digitalen Technologien entwickelte Textformate, welche sich im Druck gar
nicht oder nicht mehr genre-adäquat darstellen lassen wie Hyperfiktion oder
Twitterature.<note type="footnote">
<ref type="bibliography" target="#aciman_twitterature_2009">Aciman /
Rensin 2009</ref>.</note> Sie verlangen ebenso nach neuen Methoden
der literaturwissenschaftlichen Evaluierung wie die digitalisierten
Texte.</p>
</div>
<div type="chapter">
<head>4. Netzstruktur und Textstruktur</head>
<p>Wenn digitalisierte, d.h. in maschinenlesbare Formate gebrachte, Texte ›ins
Netz gestellt‹ werden, können sie dort mit anderen Daten verknüpft werden.
Eben durch diese Verknüpfung wird die Netzstruktur des World Wide Web
ermöglicht.</p>
<p>Hierbei erscheint bemerkenswert, dass der Aufbau des Netzes wie der Umgang
mit dem Netz Parallelen zum Aufbau von und dem Umgang mit (literarischen)
Texten aufweist, d.h. das Netz hat eine Reihe strukturell relevanter
Eigenschaften, die sich mit denjenigen von in natürlichen Sprachen
abgefassten Texten vergleichen lassen.</p>
<p>Ein verständiger Leser bezieht das Gelesene während der Lektüre unaufhörlich
auf seinen Wissens- respektive Erfahrungshorizont inklusive früherer
Lektüren; nur so kann er sich den Sinn des Textes erschließen.<note
type="footnote"> Vgl. dazu sowohl <ref type="bibliography"
target="#gadamer_wahrheit_1960">Gadamers <bibl>
<title type="desc">Hermeneutik</title>
</bibl> (1960)</ref> wie die Dekonstruktion nach <ref
type="bibliography" target="#derrida_schrift_1976">Derrida
(1976</ref>, <ref type="bibliography"
target="#derrida_grammatologie_1983">1983</ref>).</note> Während des
Lesens ›vernetzt‹ er das Gelesene also unaufhörlich ›in seinem Kopf‹ mit
einzelnen Elementen aus diesem Vorwissen: Er verknüpft den Text in einem
Netz, dessen Konstellation durch jede neu aufgenommene Information wieder
verändert wird.<note type="footnote"> Diese Vorstellung formuliert sinngemäß
erstmals 1919 T.S. Eliot in seinem Essay <bibl>
<title type="desc">Tradition and The Individual Talent</title>
</bibl> (<ref type="bibliography" target="#eliot_essays_1932">Eliot
1932</ref>).</note> Dieses Netz ist virtuell oder (im Sinne von
Benedict Anderson) imaginär,<note type="footnote">
<ref type="bibliography" target="#anderson_communities_1983">Anderson
1983</ref>.</note> da es eine Menge von Informationen enthält, die
vielen Menschen gemeinsam oder gleichzeitig zugänglich sind. Von jedem
einzelnen Menschen wird aber nur ein für ihn spezifischer, einmaliger Teil
davon erfasst. Ähnlich verhält es sich auch mit dem World Wide Web.</p>
<p>Gewöhnlich verstehen wir das World Wide Web als Akkumulation großer Mengen an
digitalen Daten, die in unterschiedlicher Dichte miteinander verknüpft und
weltweit zugänglich sind. Das Verhältnis der im World Wide Web verwalteten
Daten zu dem, was wir als ›Welt‹ auffassen, ist mindestens zweifach
strukturiert:</p>
<list type="unordered">
<item>semiotisch/symbolisch: im Netz werden Informationen, die sich auf
etwas außerhalb davon Liegendes beziehen, in Daten übersetzt und
verwaltet; der ›Entortung‹ der in Daten umgewandelten Informationen im
geopolitischen Raum korrespondiert deren neue Verortung im global
zugänglichen Webkontext (URI); die ›Entzifferung‹ der Informationen
bedarf der Zuordnung zu Systemen, innerhalb derer der
semiotische/symbolische Code Gültigkeit hat und Bedeutung entfalten
kann;</item>
<item>operationell: die Daten werden durch Operationen natürlicher oder
künstlicher Intelligenz erzeugt und verwaltet; diese Operationen
auszuführen ist technisch im Prinzip jedem Nutzer möglich.</item>
</list>
<p>Texte lassen sich desgleichen als weitreichend verknüpfte Akkumulationen von
Informationen verstehen, die in natürlichen Sprachen repräsentiert sind und
die als Daten erfasst werden können. Auch hier ist der ›Weltbezug‹
semiotisch/symbolisch; die jeweilige Entzifferung der Informationen aus den
ihm vorliegenden Daten obliegt dem Leser, der dafür ebenfalls eine Reihe von
Operationen ausführen muss, durch welche die Zeichen des Textes in Sinn
übersetzt werden (vgl. <ref type="intern" target="#hd9">Abschnitt
7</ref>).</p>
<p>Wesentlich in diesem Zusammenhang ist das für beide, Netz wie Text,
konstitutive System der Verweisung bzw. der Verknüpfung: (Natürliche)
Sprachen und darin formulierte Texte können nur dann Bedeutung generieren
und kommunizieren, wenn sie auf Außersprachliches verweisen (d.h. sie
repräsentieren dieses zeichenhaft), und wenn sie sich mit anderen
sprachlichen Aussagen respektive Texten operationell verknüpfen lassen und
in dem imaginären Netz identifizierbar werden. Texte sind autorisierte
Knotenpunkte (nodes) im Netz sprachlicher Kommunikation. Sie generieren
Bedeutung, indem sie sich sprachlich auf vereinbarte Zeichen- und
Wertsysteme beziehen. Diese Bedeutung ist nie einsträngig; die Verknüpfungen
müssen auf mehreren Ebenen des Textes vom Leser aktualisiert und weiter
verfolgt werden (können).</p>
<p>Literaturwissenschaftliche Untersuchungen zielen auf Erkenntnis solcher
Verknüpfungsstrukturen, die in literarischen Texten hochgradig elaboriert
sind. D.h. es geht hier um den Nachweis der Mehrdimensionalität, die
literarische Texte in ihren vielfältigen Verknüpfungen mit anderen Texten
und Systemen herstellen und die sie als ein Qualitätsmerkmal
auszeichnet.</p>
<p>Daraus ergibt sich die Frage, inwiefern die Verfügbarkeit digitalisierter
Texte im Netz für den Nachweis, die Darstellung und die Analyse ihrer
Mehrdimensionalität genutzt werden kann, d.h. inwiefern das World Wide Web
nicht allein als Datenspeicher, sondern auch als Medium
literaturwissenschaftlicher Erkenntnis fungieren kann. </p>
</div>
<div type="chapter">
<head>5. Literaturwissenschaftliche Textanalyse</head>
<p>Um die Mehrdimensionalität von (literarischen) Texten aufzuzeigen, versuchen
literaturwissenschaftliche Textanalysen</p>
<list type="unordered">
<item>Texte strukturell zu erfassen, d.h. ihre Eigenschaften und deren
Relationen zueinander zu bestimmen, zu kategorisieren, und die Texte
diesen Eigenschaften entsprechend zu klassifizieren;</item>
<item>Texte hermeneutisch zu verstehen, d.h. den ›mehrfachen Schriftsinn‹,
die Bedeutung von Inhalt und Aussage in Abhängigkeit von der gewählten
sprachlichen Ausdrucksform, zu bestimmen;</item>
<item>Texte kontextuell zu verorten, d.h. ihre Eigenschaften auf sprachlich
und kulturell bedingte Ordnungen (Systeme) und deren historische
Verläufe zu beziehen und einzuschätzen.</item>
</list>
<p>Die literaturwissenschaftliche Analyse besteht demnach (i) aus der
Isolierung, Beschreibung und Klassifizierung ausgewählter Eigenschaften von
Texten, und (ii) aus der differenzierenden Zuordnung dieser Merkmale zu
bedeutungstragenden Systemen. Die Zuordnung (Verknüpfung) ist für das
Verstehen eines Textes unabdinglich; sie kann nur dann erfolgen, wenn die
Bezugsgrößen (richtig) identifiziert werden. Die Mehrdimensionalität eines
(literarischen) Textes – darin liegt ein Teil seines Reizes – impliziert
aber durchaus auch multiple Möglichkeiten der Zuordnung. Diese mögliche
Vielfalt muss in der Analyse mit erfasst werden. Sie zielt somit auf die
komplexe Erfassung dessen, was ich im Folgenden das
<quote>Referenzprofil</quote> eines Textes nennen möchte.<note
type="footnote"> Vgl. dazu auch <ref type="bibliography"
target="#ramsay_machines_2011">Ramsay 2011</ref>.</note>
</p>
</div>
<div type="chapter">
<head>6. Literaturwissenschaftliche Analyse digitalisierter Texte</head>
<p>Literarische Texte mit Unterstützung von Informationstechnologie zu
bearbeiten heißt, literaturwissenschaftliche Methoden teilweise
Computerprogrammen zu übertragen in der Erwartung, das Erreichen
fachspezifischer Arbeitsziele mit deren Unterstützung zu erleichtern oder zu
verbessern. Dies betrifft insbesondere mehr oder weniger mechanische,
systematisch durchzuführende Vorgänge wie zum Beispiel das Zählen und
Sortieren festgelegter Einheiten, wo über die Anwendung von Programmen eine
größere Vollständigkeit und geringere Fehlerrate erzielt werden können. Ein
gutes Beispiel dafür sind die digitalen Editionen, die die Textaufzeichnung
und -speicherung wie die Darstellungs- und Zugriffsmöglichkeiten gerade bei
Werkausgaben erheblich verbessert haben.</p>
<p>Für die computergestützte literaturwissenschaftliche Textanalyse wird der
Analysevorgang, den der wissenschaftliche Leser vollzieht, in einzelne
Schritte zerlegt, von denen einige durch Computerprogramme ausgeführt werden
können. Gegenwärtig geht es vor allem darum, Texte von Programmen lesen und
nach bestimmten Wörtern oder Textstellen durchsuchen zu lassen. In einem
zweiten Schritt geht es darum, Programme zu entwickeln, die die
Verknüpfungen innerhalb eines Textes und zwischen Texten erkennen und
annotieren können.</p>
<div type="subchapter">
<head>6.1 Vorbereitung maschinell durchgeführter Suchabfragen</head>
<p>Um Texte von Computerprogrammen durchsuchen zu lassen, müssen sie in
maschinell analysierbare Textformate gebracht werden.</p>
<p>Zuerst werden die zu untersuchenden Texte mittels <emph>OCR (Optical
Character Recognition)</emph> in ein maschinenlesbares Format
gebracht. Dieses Verfahren ist seit Längerem gut etabliert, kann
weitgehend automatisiert erfolgen und bedarf je nach Textvorlage
manueller Nachbearbeitung in meist überschaubarem Ausmaß.</p>
<p>Anschließend werden Texteigenschaften in einer Weise ausgezeichnet
(annotiert), die ihre Abfrage durch Computerprogramme ermöglicht. Auch
diese Auszeichnung kann durch bereits erprobte Programme durchgeführt
werden, bedarf aber ebenfalls der manuellen Ergänzung.</p>
<p>Die Annotierung baut einerseits auf Verfahren und Erkenntnissen auf, wie
sie zuerst in der computergestützten Edition Anwendung fanden (XML,
TEI).<note type="footnote">
<ref type="bibliography" target="#sahle_editionsformen_2013">Sahle
2013</ref>, passim.</note> Des Weiteren kommen Verfahren aus der
Computerlinguistik zur Anwendung (<emph>FSPar, Stanford Core NLP,
CLAWS</emph>), wenn die digital bearbeiteten Texte zusätzlich mit
Tags für automatisiert durchzuführende Abfragen versehen werden (z.B.
Lemmatisierung, <emph>part of speech tags</emph>,
<emph>TreeTagger</emph>, <ref target="http://ucrel.lancs.ac.uk/"
>semantic tags</ref>).</p>
<p>Die Annotierung entspricht andererseits dem Ansatz klassischer und bis in
jüngere Zeit immer noch weiter verfeinerter literaturwissenschaftlicher
Kommentare zu Hauptwerken der Antike, des Mittelalters oder den
Klassikern der Moderne (die jüdische Thora als Kommentar zum Alten
Testament; Marsilius Ficino zu Platon; Boccaccio zu Dante...). Diese
Kommentare verfahren ebenfalls lemmatisierend; sie liefern Annotationen
zu einzelnen Worten oder Textstellen. Sie haben die Aufgabe, sprachliche
und textuelle Besonderheiten sowie möglicherweise unverständliche
Stellen hervorzuheben, zu beschreiben, zu erläutern, aufzuschlüsseln und
durch Belege aus anderen Quellen zu erklären. Ging es zunächst darum,
den ›mehrfachen Schriftsinn‹ eines hieratischen Textes zu (ent-)bergen,
so dienen spätere Kommentierungen der Entzifferung komplexer,
hybridisierter sprachlicher Strukturen<note type="footnote"> Zu Joyce
vgl. <ref type="bibliography" target="#gifford_notes_1989">Gifford /
Seidman 1989</ref>.</note> oder intertextueller Bezugnahmen<note
type="footnote"> Zu Celan vgl. <ref type="bibliography"
target="#lehmann_kommentar_2003">Lehmann / Ivanovic
2003</ref>.</note>, respektive der Bewahrung sprachlich-kulturellen
Wissens, das zeitgenössischen Lesern oft nicht mehr zur Verfügung steht.
Bei der digitalen Annotierung werden Erläuterungen in Form von
Querverweisen eingefügt, die im Kontext des World Wide Web als
verfolgbare Verknüpfungen (Links) fungieren können (vgl. <ref
type="verweis" target="#hd9">Abschnitt 7</ref>).</p>
<p>Die Entwicklung von für die Literaturanalyse geeigneten
Annotationsverfahren stellt gegenwärtig eine der zentralen Aufgaben in
der Entwicklung von Methoden digitaler Literaturanalyse dar. Eines der
wesentlichen Probleme dabei ist die Wahl der geeigneten Granularität.
Die Granularität muss gröber sein, als die in der Korpuslinguistik
angewandte (typische Einheiten wären Wort oder Satz); sie sollte feiner
sein als die etablierten literaturwissenschaftlichen Kategorien
(typische Einheiten wären Gattungen oder Schreibweisen). Mit der
Quantität sollte auch die Distribution der gesuchten Größen innerhalb
der Texte erfasst werden, indem man kleinere Texteinheiten (z.B.
Absätze) bei der Auszeichnung mit berücksichtigt. So kann man zum
Beispiel bei der Untersuchung des Auftretens von Personen in einer
Netzwerkanalyse das Auftreten der Personen in Relation zum jeweiligen
Raum registrieren und dabei gleichzeitig Texteinheiten (z.B. Absätze)
notieren. So können personenbezogene Handlungsstränge innerhalb eines
Textes abgegrenzt und verglichen werden.<note type="footnote"> Ansätze
dazu erproben wir gegenwärtig in einem auf die Analyse der Werke
Ilse Aichingers bezogenen Projekt, vgl. dazu <ref
type="bibliography" target="#ivanovic_viennavigator_2015"
>Ivanovic / Frank 2015.</ref></note>
</p>
</div>
<div type="subchapter">
<head>6.2 Bearbeitung, Auswertung und Darstellung von Suchergebnissen</head>
<p>Digitale Literaturanalysen, die auf der Auszeichnung von
Texteigenschaften beruhen, entsprechen der unter <ref type="intern"
target="#hd5">Abschnitt 5</ref> genannten strukturellen
Texterfassung. Das vereinheitliche Verfahren lässt sich als
automatisiertes Vorgehen auf eine unbegrenzt große Anzahl von Texten
anwenden und erlaubt die gleichen überprüfbaren Abfragen in einem
Textumfang, der weit über der menschlichen Lesekapazität liegt.</p>
<p>Wenn nicht nur ein einzelner Text, sondern wenn größere Textkorpora mit
derselben Methode untersucht werden, d.h. wenn dieselbe Suchabfrage an
vielen Texten durchgeführt wird, kommt man zu statistisch auswertbaren
Ergebnissen, die mit den in der Statistik oder in der Informatik
üblichen Mitteln dargestellt werden können: Graphen, Karten, Bäume,
Netze, Blasen etc. visualisieren die erzielten Suchergebnisse.
Ausführliche Beispiele dafür diskutiert Franco Moretti in seinen Büchern <bibl>
<title type="desc"><ref type="bibliography"
target="#moretti_atlas_1999">Atlas des europäischen
Romans</ref></title>
</bibl> (1999) sowie <bibl>
<title type="desc"><ref type="bibliography"
target="#moretti_graphs_2005">Graphs, Maps,
Trees</ref></title>
</bibl> (2005) und <bibl>
<title type="desc"><ref type="bibliography"
target="#moretti_reading_2013">Distant Reading</ref></title>
</bibl> (2013). Solche Darstellungen gelten als attraktiv und
anschaulich. In den Literaturwissenschaften sind sie bisher nur sehr
begrenzt eingesetzt worden, finden aber zunehmend Akzeptanz. Dabei darf
nicht übersehen werden, dass sie Ergebnisse von Suchanfragen zwar
veranschaulichen, aber selbst noch der Analyse bedürfen.</p>
</div>
</div>
<div type="chapter">
<head>7. Literaturanalyse im Semantic Web</head>
<p>Die digitale Literaturanalyse stützt sich in der Regel auf digitalisierte
Texte oder Textkorpora, die von einzelnen Arbeitsgruppen oder Institutionen
erarbeitet wurden. Diese Texte sind aber meist nicht frei zugänglich, und
sie sind vor allem nicht mit externen Daten verknüpfbar. Digitalisierte,
d.h. maschinenlesbare Texte, auf die im Netz zugegriffen werden kann,
erlauben weitere Analysemöglichkeiten durch Datenvernetzung im
<emph>Semantic Web</emph>. Diese Vorgehensweise geht auf Sir Tim
Berners-Lee zurück, der 2001 vorgeschlagen hat, die Möglichkeiten des World
Wide Web mit semantischen Annotationen zu ergänzen, um die in allen
Dokument-Texten implizit enthaltenen (für menschliche Leser verständlichen)
Informationen explizit (d.h. für Programme auswertbar) zu machen.<note
type="footnote">
<ref type="bibliography" target="#berners_web_2001">Berners-Lee et al.
2001</ref>.</note>
</p>
<p>Das <emph>Semantic Web</emph> beruht darauf, dass bestimmte Informationen in
digitalen Dokumenten mit einer URI identifizierbar gemacht werden. Über
diese Identifikatoren kann in anderen Dokumenten auf sie verwiesen werden,
und zwar in beliebiger Abfolge. Damit entsteht wiederum ein Netz (hier
besser: ein Graph) von Verweisen, die ihrerseits wieder annotiert und
abgefragt werden können.<note type="footnote">
<ref type="bibliography" target="#hitzler_web_2008">Hitzler et al.
2008</ref>.</note> Der dafür zur Verfügung stehende Standard
RDF<note type="footnote"> Vgl. den RDF Primer <ref
target="http://www.w3.org/TR/2004/REC-rdf-primer-20040210/"
>http://www.w3.org/TR/2004/REC-rdf-primer-20040210/</ref>.</note>
ist ein nicht spezifisch für die Computerphilologie entwickeltes
Auszeichnungsformat,<note type="footnote">
<ref type="bibliography" target="#cure_database_2015">Curé / Blin
2015</ref>.</note> das in der Literaturanalyse aber vor allem
deshalb mit Erfolg eingesetzt werden kann, weil es über die Erfassung der
sprachlich-textuellen Merkmale hinaus die vollständige Erfassung der
Struktur und der Kontexte eines Texts sein Referenzprofil ermöglicht. Die
ebenfalls standardisierte Abfragesprache SPARQL erlaubt dann beliebige
Suchen nach Mustern in mit RDF strukturierten Dokumenten.</p>
<div type="subchapter">
<head>7.1 Erstellung eines vernetzten Texts</head>
<p>Die Zuordnung der evaluierten Textmerkmale zu textexternen Referenzgrößen
wurde in <ref type="intern" target="#hd5">Abschnitt 5</ref> als
notwendige Voraussetzung für das Verstehen eines Textes – das Erfassen
seiner Bedeutung<note type="footnote"> Vgl. zu dieser Problematik u.a.
<ref type="bibliography" target="#jannidis_regeln_2003">Jannidis
et al. 2003</ref>, hier S. 3–30 und insbesondere die Einleitung
von Gerhard Lauer zum Abschnitt <quote>IV. Historische Aspekte
literarischer Bedeutung</quote>, wo er auf die Praxis der
<quote>Bedeutungszuweisung</quote> eingeht, S. 559–565.</note> –
genannt. Sie realisiert sich als Operation der Verknüpfung mit jeweils
als zugehörig erachteten Bezugsgrößen, die der Leser vollziehen
muss.</p>
<p>Für diese kontextualisierende Zuordnung mit Hilfe von Computerprogrammen
bietet die Auszeichnung (literarischer) Texte im Netz die entscheidende
Grundlage.</p>
<p>Texte, die im Netz zugänglich sind, können zwar zusätzlich mit Hyperlinks
ausgestattet werden, die beim Lesen eine Weiterleitung zu anderen
Webeinträgen ermöglichen. Hyperlinks sind für Suchabfragen jedoch
ineffizient. Texte mit dem Standard RDF zu annotieren, ermöglicht
hingegen eine effiziente Analyse auch riesiger Textmengen. Milliarden
von Triples können innerhalb von Sekunden nach komplexen Mustern
abgefragt werden. RDF erlaubt auch die Verknüpfung mit externen
Datenbanken wie Wikipedia, Google Maps, Filmdatenbanken etc. Solche
externen Datenbestände können, soweit sie im RDF Format vorliegen (wie
dies etwa bei DBpedia der Fall ist), nicht nur aufgefunden, sondern
wiederum in Abfragen verwendet werden. So ist es zum Beispiel
umstandslos möglich, alle Regisseure und Schauspieler, die in einem Text
erwähnt werden, herauszufinden und zu prüfen, ob ein Film zum fiktiven
Zeitpunkt der Handlung in einem Text bereits öffentlich gezeigt worden
ist oder nicht.</p>
<p>Der Entwicklung von Verfahren zur (automatisierten) Erkennung und
Auszeichnung der entsprechenden Textstellen gilt daher gegenwärtig unser
vorrangiges Interesse. Ziel wäre es, diese Verfahren so weit zu
entwickeln, dass die Verweisstruktur eines Textes, also dessen
Referenzprofil, möglichst automatisch und möglichst vollständig erfasst
werden kann. Dies betrifft Referenzen auf Personen, Orte, Zeitangaben,
Ereignisse, Sachverhalte etc., aber auch Bild- oder Textreferenzen,
Zitate, intertextuelle Bezugnahmen, Anspielungen, Redewendungen u.v.m.
Letztlich geht es um die Verknüpfung des Textes mit Informationen, wie
sie bereits in klassischen Textkommentaren beigebracht wurden, also um
die Erfassung struktureller Merkmale, um Wort- und Sachverweise,
intertextuelle Bezüge etc., nicht aber um Abbildung des subjektiven
Assoziationsraums, in den jeder private Leser <hi rend="italic"
>seine</hi> Lektüre eines Textes notwendigerweise einbetten
wird.</p>
</div>
<div type="subchapter">
<head>7.2 Literaturanalyse im Semantic Web</head>
<p>Die mit RDF ausgezeichneten Dokumente können mit der Abfragesprache
SPARQL untersucht werden, wobei sich über die Verbindung zu anderen
Datenbanken durch die spezifische Strukturierung (Verknüpfbarkeit) der
Suchkriterien erweiterte Suchmöglichkeiten ergeben. So erlaubt
beispielsweise die Erfassung sämtlicher in einem Korpus genannter
Ortsnamen durch RDF eine Verknüpfung mit Gazeteers (wie
<emph>OpenStreetMap</emph>), um die geographischen Koordinaten zu
bestimmen und daraus Karten z.B. mit Google Maps oder Google Fusion
Tables zu zeichnen, über die sich die Frequenz und Distribution der in
den erfassten Texten auftretenden Ortsnamen relationieren lassen. Der
DARIAH-DE <ref target="https://de.dariah.eu/geobrowser">GeoBrowser</ref>
erlaubt darüber hinaus das Zeichnen von Karten, die Veränderungen in der
Zeit anzeigen.</p>
<p>Da die Texte im Netz evaluierbar sind, werden die ermittelten
Referenzierungen dann aber nicht nur vom Einzeltext her lesbar. Es lässt
sich auch in umgekehrter Richtung evaluieren, welche Texte sich auf
einen bestimmten Referenzpunkt (z.B. ein bestimmtes Zitat oder einen Ort
etc.) beziehen.<note type="footnote"> Vgl. dazu auch <ref
type="bibliography" target="#barbaresi_extraction_2016"
>Barbaresi 2016</ref>.</note>
</p>
</div>
<div type="subchapter">
<head>7.3 Digitale Literaturanalyse durch andere Disziplinen</head>
<p>Diese Methoden der Literaturanalyse könnten sich schließlich weit über
ästhetisch-literaturwissenschaftliche Fragestellungen hinaus als
nützlich erweisen. Denn die so erfassten literarischen Texte sind auf
diese Weise der Grundanlage des World Wide Web entsprechend für jeden
überall zugänglich und werden so auch für andere Disziplinen
evaluierbar. Dies kann neben den historischen Wissenschaften auch für
alle weiteren Forschungsrichtungen von Interesse sein, die sich mit
Fragen der menschlichen Kultur respektive mit der Entwicklungsgeschichte
des Menschen befassen, also auch für die Lebenswissenschaften sowie alle
Fachrichtungen, die Kognitionsprozesse untersuchen. Wie Menschen
beispielsweise Raum(-strukturen) erfahren, erfassen, beschreiben,
repräsentieren und kommunizieren, ist eine für alle Raumwissenschaften
wichtige Frage.<note type="footnote">
<ref type="bibliography" target="#guenzel_raumwissenschaften_2009"
>Günzel 2009</ref>.</note> Sie könnte an (literarischen) Texten
mit großem Gewinn untersucht werden.<note type="footnote"> Entsprechend
multidisziplinär ausgelegt sind einschlägige Initiativen wie
DARIAH-Eu.</note>
</p>
<p>Obwohl in literarischen Texten eine Fülle an (nicht nur kulturellem)
Wissen enthalten und greifbar ist, wird Literatur in dieser Hinsicht
bisher nur partiell evaluiert. Durch die Indizierung literarischer Texte
<emph>im Semantic Web</emph> können auch andere Disziplinen deren
Daten systematisch für ihre Erkenntnisbemühungen nutzen.</p>
</div>
</div>
<div type="chapter">
<head>8. Perspektiven</head>
<div type="subchapter">
<head>8.1 Abschied vom biblischen Zeitalter</head>
<p>Es zeichnet sich ab, dass die hier in Betracht gezogenen Methoden
literarische Texte zu analysieren eher darauf ausgerichtet sind, große
Mengen von Texten zu bearbeiten als einzelne Werke zu analysieren. Das
mit den Computerprogrammen gegebene Potential, Textmengen in einem
Ausmaß zu untersuchen, das kein einzelner Leser bzw. Leserin je
überblicken könnte, ist eine attraktive Herausforderung für die heutige
Literaturwissenschaft. Der Positionswechsel weg von der hermeneutischen
Auslegung des ›einen‹ Buchs zum <quote>Distant Reading</quote> hunderter
von Texten, wie dies Franco Moretti experimentell pointiert hat,<note
type="footnote">
<ref type="bibliography" target="#moretti_reading_2013">Moretti
2013</ref>.</note> ermöglicht neuartige Fragestellungen, die
keineswegs als disziplinfern oder -fremd eingestuft werden können. Im
Gegenteil, letztlich hat uns Morettis <bibl>
<title type="desc">Atlas</title>
</bibl> ›den‹ europäischen Roman auf neue Weise nahe gebracht.<note
type="footnote">
<ref type="bibliography" target="#moretti_atlas_1999">Moretti
1999</ref>.</note>
</p>
<p>Wir hoffen, dass sich bei einer solchen Betrachtungsweise ›das System‹
Literatur, und das würde heißen die Funktionen und das Funktionieren
literarischer Texte im Gesamtgefüge kultureller Gemeinschaften, in
seinen Konturen deutlicher erkennen lässt. Literarische Texte sind weder
Unikate noch Einzelgänger. Mehrfach reproduziert erscheinen sie an
vielen Orten gleichzeitig. Sie treten im Gefüge literarischer
Traditionen und aktueller Strömungen auf und bezeugen historische
Ereignisse und Entwicklungen. Sie partizipieren an den Diskursen der
Gesellschaft und sie sind Teil ökonomischer Beziehungen, die Entstehung
und Rezeption ebenso wie Thema und Argumentation der Texte bestimmen.
Diese Art der Verankerung oder Vernetzung von Texten in größeren
systemischen Zusammenhängen sichtbar zu machen, kann mit den hier
skizzierten Methoden in einer Weise geleistet werden, die die
Evaluierung großer Textgruppen wie einzelner Texte ermöglicht und
erfordert.</p>
</div>
<div type="subchapter">
<head>8.2 Die Vernetzung des Texts</head>
<p>Gerade jene monumentalen Einzeltexte, denen in der Kulturgeschichte
größte Bedeutung zuerkannt wird, scheinen intensiv systemisch vernetzt;
dies gilt für die Bibel ebenso wie für Homer, für Dante wie für die
Märchen aus Tausendundeiner Nacht, für Shakespeare wie für Joyce.
Evaluiert man das Referenzprofil respektive den Verknüpfungsgrad eines
einzelnen Textes, lässt sich dessen Verhältnis zum ›unendlichen‹ Text
der <quote>Weltliteratur</quote> wie auch sein referentielles Verhältnis
zur <quote>Welt</quote> genauer bestimmen. Dies könnte nahelegen, dass
sich aus der Ermittlung des jeweiligen Vernetzungsgrads neue Kriterien
zur literarischen Wertung respektive zur Bestimmung der ästhetischen
Qualität von Texten erarbeiten lassen.</p>
<p>Vergleicht man jedoch Qualität und Intensität der Verknüpfungen, ergibt
sich eher eine ganze Reihe von Relationen als eine Werteskala. Sie
können beispielsweise im Hinblick auf die Mechanismen der Textrezeption
ebenfalls statistisch untersucht werden: einem hohen Grad an Verknüpfung
dürfte ein hohes Maß an Anschlussmöglichkeiten für viele Leser
entsprechen; ein geringer Grad an Verknüpfung hingegen kann große
Eigenständigkeit der literarischen Struktur signalisieren; sehr
spezielle Verknüpfungen können hermetische Tendenzen anzeigen;
abstrakt-allgemeine Merkmale könnten eine weiträumige Rezipierbarkeit
ermöglichen etc. Es sind auch bisher nicht angestellte Überlegungen, die
sich hier als weiterführende Forschungsfragen abzeichnen. Für deren
Evaluierung können schließlich auch Metadaten wie die Registrierung von
Abfragehäufigkeit einzelner Texte oder einzelner Verknüpfungen genutzt
werden, sofern man deren Erhebung ins Programm implementiert hat.</p>
</div>
<div type="subchapter">
<head>8.3 Alte und neue Aufgaben</head>
<p>Der skizzierte Ansatz digitaler Literaturanalyse durch Datenvernetzung
mündet in eine Art relationierende Literaturanalyse, in der die
Eigenschaften einzelner Texte im Verhältnis zu Textgruppen evaluiert und
auf die Systeme bezogen werden, in die sie produktions- wie
rezeptionsästhetisch eingebettet sind. Nach wie vor wird ein Schwerpunkt
der Analyse auf der genauen Untersuchung von Textstrukturen und deren
Erfassung durch literaturwissenschaftliche Kategorien liegen.</p>
<p>Eine der wesentlichen Ideen dieser Methode ist es, das in und mit
literarischen Texten kommunizierte Wissen schärfer hervortreten zu
lassen und systematischer als bisher zu bergen. Dies betrifft einerseits
spezifisch literaturwissenschaftlich relevantes Wissen, wie etwa die
Wanderung ästhetischer Konzepte und Ausdrucksformen, und andererseits
die Möglichkeit außerliterarische Sachzusammenhänge abzufragen, die in
Texten abgebildet oder thematisiert werden wie zum Beispiel die
Ermittlung von Daten zu Kaufpreisrelationen, wie sie für die
Wirtschaftsgeschichte von Belang sind, oder Daten zur Erforschung des
Klimawandels und Beschreibungen medizinisch relevanter Krankheitsbilder.
Die Daten der ›vernetzten‹, d.h. für automatisierte Abfragen
vorbereiteten Texte im World Wide Web können und sollten also auch von
anderen Disziplinen genutzt und damit das Potential von Literatur in
weiterem Umfang als bisher erfasst und wissenschaftlichen
Erkenntnisbemühungen verfügbar gemacht werden. </p>
</div>
</div>
<div type="chapter">
<head>9. Conclusio</head>
<p>Für die Entwicklung digital gestützter Literaturanalysen scheint es sinnvoll,
an bereits bewährte Methoden und Ansätze der Computerlinguistik respektive
der Korpuslinguistik anzuknüpfen. Wie viele andere Bereiche der
Computerwissenschaften wird auch die digitale Literaturwissenschaft in
Zukunft in hohem Maße auf Erkenntnisse und Methoden des Natural Language
Processing angewiesen sein.</p>
<p>Vorerst erscheint die Entwicklung komplexer Annotationsverfahren respektive
zugehöriger Abfragen als ein begehbarer Weg, um systematische und
nachprüfbare Literaturanalysen anhand großer Textkorpora zu ermöglichen.
Diese Analysen können insbesondere bei großräumig angelegten Untersuchungen
unter anderem dazu beitragen, basale Einschätzungen der Disziplin zum
Beispiel in Bezug auf Formierung und Ausbreitung bestimmter literarischer
Genres, Strömungen oder Gruppierungen, oder aber im Hinblick auf die
Untersuchung von literarischem und Wissenstransfer zu überprüfen und zu
differenzieren. Andererseits zeichnet sich ab, dass diese Verfahren auch im
Bereich von Einzeltextanalysen fruchtbar genutzt werden können, wenn es
darum geht, die Spezifika eines Werks vergleichend zu evaluieren.</p>
<p>Wenn Textkorpora im World Wide Web gespeichert werden, so fördert dies nicht
allein deren allgemeine ubiquitäre Zugänglichkeit. Eine Integration der
Texte ins <emph>Semantic Web</emph> eröffnet darüber hinaus weitere
Optionen: sie ermöglicht die Darstellung der Mehrdimensionalität
literarischer Texte durch Datenverknüpfung und fungiert damit sowohl als
Speichermedium wie als Medium wissenschaftlicher Erkenntnisgewinnung. Eine
solche Textdarstellung wird das Spektrum literaturwissenschaftlicher
Erkenntnismöglichkeiten zweifellos erweitern. Nicht zuletzt aber ermöglicht
die Verknüpfung von literarischen Texten mit dem <emph>Semantic Web</emph>
auch anderen an der Entwicklung des Menschen und den von ihm geschaffenen
Systemen interessierten Disziplinen Zugang zu dem in literarischen Texten
enthaltenen Wissen, das von diesen bisher kaum evaluiert werden konnte.<note
type="footnote"> Dieser Beitrag entstand im Zusammenhang eines
Forschungsprojekts zur digitalen Literaturanalyse, das ich gegenwärtig
mit einer Gruppe von Studierenden und in Verbindung mit Andrew U. Frank
(TU Wien) am ICLTT der ÖAW durchführe.</note>
</p>
</div>
<div type="bibliography">
<head>Bibliographische Angaben</head>
<listBibl>
<bibl xml:id="aciman_twitterature_2009">Alexander Aciman / Emmet Rensin:
Twitterature: The World’s Greatest Books Retold Through Twitter. New
York 2009. <ptr type="gbv" cRef="609752227"/></bibl>
<bibl xml:id="anderson_communities_1983">Benedict Anderson: Imagined
Communities: Reflections on the Origin and Spread of Nationalism. London
1983. <ptr type="gbv" cRef="040398609"/></bibl>
<bibl xml:id="baillot_reconstruire_2015">Anne Baillot: Reconstruire ce qui
manque ou le déconstruire ? Approches numériques des sources
historiques. Entre sources données et résaux (Porgramme MORE-HIST). Mar
2015, Toulouse, France 2015. [<ref
target="https://halshs.archives-ouvertes.fr/halshs-01133507"
>online</ref>] </bibl>
<bibl xml:id="barbaresi_extraction_2016">Adrien Barbaresi / Hanno Biber:
Extraction and Visualization of Toponyms in Diachronic Text Corpora
Digital Humanities Kraków, 11–16 July 2016, <ref
target="http://dh2016.adho.org/abstracts/317"
>http://dh2016.adho.org/abstracts/317</ref> [<ref
target="https://halshs.archives-ouvertes.fr/halshs-01133507"
>online</ref>] </bibl>
<bibl xml:id="bense_theorie_1962">Max Bense: Theorie der Texte. Eine
Einführung in neuere Auffassungen und Methoden. Köln 1962. <ptr
type="gbv" cRef="173504620"/></bibl>
<bibl xml:id="bense_einfuehrung_1969">Max Bense: Einführung in die
informationstheoretische Ästhetik. Grundlegung und Anwendung in der
Texttheorie. Reinbek 1969. <ptr type="gbv" cRef="267651384"/></bibl>
<bibl xml:id="berners_web_1999">Tim Berners-Lee / Mark Fischetti: Weaving
the Web: The Original Design and Ultimate Destiny of the World Wide Web
by its inventor. San Francisco 1999. <ptr type="gbv" cRef="079012450"
/></bibl>
<bibl xml:id="berners_web_2001">Tim Berners-Lee / James Hendler / Ora
Lassila: The semantic web. Scientific America 2001. [<ref
target="http://www.scientificamerican.com/article/the-semantic-web/"
>online</ref>]</bibl>
<bibl xml:id="coetzee_fiction_1969">John Maxwell Coetzee. The English
Fiction of Samuel Beckett. An Essay in Stylistic Analysis. Austin 1969.
<ptr type="gbv" cRef="527776467"/></bibl>
<bibl xml:id="cure_database_2015">Olivier Curé / Guillaume Blin: RDF
Database Systems: Triples Storage and SPARQL Query Processing. Amsterdam
2015. <ptr type="gbv" cRef="796491577"/></bibl>
<bibl xml:id="derrida_schrift_1976">Jacques Derrida: Die Schrift und die
Differenz. [L’écriture et la différence. Paris 1967]. Frankfurt/Main
1976. <ptr type="gbv" cRef="02142053X"/></bibl>
<bibl xml:id="derrida_grammatologie_1983">Jacques Derrida: Grammatologie [De
la grammatologie. Paris 1967]. Frankfurt/Main 1983. <ptr type="gbv"
cRef="024973661"/></bibl>
<bibl xml:id="eliot_essays_1932">Thomas Sterns Eliot: Selected Essays,
1917–1932. London, New York 1932. <ptr type="gbv" cRef="022474498"
/></bibl>
<bibl xml:id="engelmann_randgaenge_1988">Peter Engelmann: Jacques Derridas
Randgänge der Philosophie. Wien 1988. <ptr type="gbv" cRef="026759365"
/></bibl>
<bibl xml:id="fucks_analyse_1955">Wilhelm Fucks: Mathematische Analyse von
Sprachelementen, Sprachstil und Sprachen. [Veröffentlichungen der
Arbeitsgemeinschaft für Forschung des Landes Nordrhein-Westfalen, H.
34a]. Opladen 1955. <ptr type="gbv" cRef="018289886"/></bibl>
<bibl xml:id="gadamer_wahrheit_1960">Hans-Georg Gadamer: Wahrheit und
Methode. Grundzüge einer philosophischen Hermeneutik. Tübingen 1960.
<ptr type="gbv" cRef="016338189"/></bibl>
<bibl xml:id="giacomuzzi_literaturmagazine_2012">Renate Giacomuzzi:
Deutschsprachige Literaturmagazine im Internet. Ein Handbuch. Innsbruck
2012. <ptr type="gbv" cRef="672372193"/></bibl>
<bibl xml:id="gifford_notes_1989">Don Gifford / Robert J. Seidman: Ulysses
Annotated. Notes for James Joyce’s Ulysses. Los Angeles, London 1989.
<ptr type="gbv" cRef="190991046"/></bibl>
<bibl xml:id="guenzel_raumwissenschaften_2009">Stephan Günzel:
Raumwissenschaften. Frankfurt/Main 2009. <ptr type="gbv"
cRef="55062189X"/></bibl>
<bibl xml:id="herring_weblogs_2005">Susan C. Herring / Lois Ann Scheidt /
Elijah Wright / Sabrina Bonus: Weblogs as a bridging genre. In:
Information, Technology & People 18 (2005), H. 2, S. 142–171. [<ref
target="http://dx.doi.org/10.1108/09593840510601513"
>online</ref>]</bibl>
<bibl xml:id="hilbert_denken_1970">David Hilbert: Axiomatisches Denken.
Mathematische Annalen Bd. 78, S. 405–415 (1918). Wieder abgedruckt in:
David Hilbert: Gesammelte Abhandlungen. Band III: Analysis; Grundlagen
der Mathematik; Physik; Verschiedenes; Lebensgeschichte. Heidelberg
1970, S. 146–155. <ptr type="gbv" cRef="125584326"/></bibl>
<bibl xml:id="hitzler_web_2008">Pascal Hitzler / Markus Krötzsch / Sebastian
Rudolph / York Sure: Semantic Web. Grundlagen. Berlin 2008. <ptr
type="gbv" cRef="513711368"/></bibl>
<bibl xml:id="jannidis_regeln_2003">Fotis Jannidis / Gerhard Lauer / Matías
Martínez / Simone Winko: Regeln der Bedeutung. Zur Theorie der Bedeutung
literarischer Texte. Berlin 2003. <ptr type="gbv" cRef="362203059"
/></bibl>
<bibl xml:id="kenny_computation_1982">Anthony Kenny: The Computation of
Style. Oxford, New York 1982. <ptr type="gbv" cRef="014317214"/></bibl>
<bibl xml:id="ivanovic_viennavigator_2015">Christine Ivanovic / Andrew U.
Frank: Viennavigator: Digitale Formalisierung literarischer Topographien
am Beispiel des Gesamtwerks von Ilse Aichinger. In: Norbert Bachleitner
/ Christine Ivanovic (Hg.): Nach Wien! Sehnsucht, Distanzierung, Suche.
Literarische Darstellungen Wiens aus komparatistischer Perspektive.
Frankfurt/Main u.a. 2015, S. 289–322. <ptr type="gbv" cRef="837973260"
/></bibl>
<bibl xml:id="lauer_vermessung_2013">Gerhard Lauer: Die Vermessung der
Kultur. Geisteswissenschaften als digital Humanities. In: Big Data. Das
neue Versprechen der Allwissenheit. Hg. von Heinrich Geiselberger.
Berlin 2013, S. 99–116. <ptr type="gbv" cRef="778140563"/></bibl>
<bibl xml:id="lauer_weltbibliothek_2014">Gerhard Lauer: Die Weltbibliothek
und ihre Korpora. In: Zeitschrift für Bibliothekswesen und Bibliographie
61 (2014) H. 4–5, S. 251–253. [<ref
target="http://dx.doi.org/10.3196/18642950146145149"
>online</ref>]</bibl>
<bibl xml:id="lehmann_kommentar_2003">Jürgen Lehmann / Christine Ivanovic:
Kommentar zu Paul Celans »Die Niemandsrose«. Heidelberg 2003. <ptr
type="gbv" cRef="365250287"/></bibl>
<bibl xml:id="moretti_atlas_1999">Franco Moretti: Atlas of the European
Novel 1800–1900. New York 1999. <ptr type="gbv" cRef="25446467X"
/></bibl>
<bibl xml:id="moretti_graphs_2005">Franco Moretti: Graphs, Maps, Trees:
Abstract Models for a Literary History. New York 2005. <ptr type="gbv"
cRef="47948466X"/></bibl>
<bibl xml:id="moretti_reading_2013">Franco Moretti: Distant Reading. New
York 2013. <ptr type="gbv" cRef="746442440"/></bibl>
<bibl xml:id="musil_ausgabe_2009">Robert Musil: Klagenfurter Ausgabe.
Kommentierte digitale Edition sämtlicher Werke, Briefe und
nachgelassener Schriften. Mit Transkriptionen und Faksimiles aller
Handschriften. Klagenfurt 2009. <ptr type="gbv" cRef="584224265"
/></bibl>
<bibl xml:id="ramsay_machines_2011">Stephen Ramsay: Reading Machines. Toward
an Algorithmic Criticism. University of Illinois Press 2011. <ptr
type="gbv" cRef="654966346"/></bibl>
<bibl xml:id="sahle_editionsformen_2013">Patrick Sahle: Digitale
Editionsformen. Teil 3: Textbegriffe und Recodierung. Zum Umgang mit der
Überlieferung unter den Bedingungen des Medienwandels. Schriften des
Instituts für Dokumentologie und Editorik. Norderstedt 2013. [<ref
target="http://nbn-resolving.de/urn:nbn:de:hbz:38-50130"
>online</ref>]</bibl>
<bibl xml:id="salgaro_ausgabe_2014">Robert Musil in der Klagenfurter
Ausgabe: Bedingungen und Möglichkeiten einer digitalen Edition. Hg. von
Massimo Salgaro. München 2014. <ptr type="gbv" cRef="774851848"/></bibl>
<bibl xml:id="suter_hyperfiction_2000">Beat Suter: Hyperfiktion und
interaktive Narration: Im frühen Entwicklungsstadium zu einem Genre.
Zürich 2000. <ptr type="gbv" cRef="315118776"/></bibl>
<bibl xml:id="suter_hyperfiction_2001">Beat Suter / Michael Böhler:
Hyperfiction. Hyperliterarisches Lesebuch: Internet und Literatur.
Frankfurt/Main 2001. <ptr type="gbv" cRef="300078641"/></bibl>
</listBibl>
<div type="bibliography2">
<head>Weiterführende Literatur</head>
<listBibl>
<bibl xml:id="bird_language_2009">Steven Bird / Edward Loper / Ewan Klein:
Natural Language Processing with Python. Sebastopol 2009. <ptr
type="gbv" cRef="593717139"/></bibl>
<bibl xml:id="clark_handbook_2010">Alexander Clark / Chris Fox / Shalom
Lappin: The Handbook of Computational Linguistics and Natural Language
Processing. Chichester 2010. <ptr type="gbv" cRef="617742286"/></bibl>
<bibl xml:id="coombs_systems_1987">James H. Coombs / Allen H. Renear /
Steven J. DeRose: Markup systems and the future of scholarly text
processing. In: Communications of the ACM 30 (1987), H. 11, S. 933–947.
[<ref target="http://dx.doi.org/10.1145/32206.32209"
>online</ref>]</bibl>
<bibl xml:id="hoover_end_2007">David Hoover: The end of the irrelevant text:
Electronic texts, linguistics, and literary theory. In: DHQ 2 (2007).
[<ref
target="http://www.digitalhumanities.org/dhq/vol/1/2/000012/000012.html"
>online</ref>]</bibl>
<bibl xml:id="jannidis_romane_2005">Fotis Jannidis / Gerhard Lauer / Andrea
Rapp: Alte Romane und neue Bibliotheken. Zum Projekt eines digitalen
historischen Referenzkorpus des Deutschen. In: Die innovative
Bibliothek. Hg. von Erland Kolding Nielsen / Klaus Gerhard Saur / Klaus
Ceynowa. München 2005, S. 139–150. <ptr type="gbv" cRef="485794527"
/></bibl>
<bibl xml:id="jannidis_romane_2007">Fotis Jannidis / Gerhard Lauer / Andrea
Rapp: Hohe Romane und blaue Bibliotheken. Zum Forschungsprogramm einer
computergestützten Buch- und Narratologiegeschichte des Romans in
Deutschland (1500–1900). In: Literatur und Literaturwissenschaft auf dem
Weg zu den neuen Medien. Eine Standortbestimmung. Zürich 2007, S. 29–42.
<ptr type="gbv" cRef="569448735"/></bibl>
<bibl xml:id="jannidis_methoden_2010">Fotis Jannidis: Methoden der
computergestützten Textanalyse. In: Methoden der literature- und
kulturwissenschaftlichen Textanalyse. Hg. von Vera Nünning. Stuttgart
2010, S. 109–132. <ptr type="gbv" cRef="600206319"/></bibl>
<bibl xml:id="jannidis_delta_2014">Fotis Jannidis / Gerhard Lauer: Burrows’s
delta and its use in german literary history. <ptr type="gbv"
cRef="786496665"/> In: Distant Readings. Topologies of German
Culture in the Long Nineteenth Century. New York 2014, S. 29–54. <ptr
type="gbv" cRef="774719931"/></bibl>
<bibl xml:id="lauer_introduction_2015">Gerhard Lauer: Introduction:
Empirical Methods in Literary Studies. In: Journal of Literary Theory 9
(2015), H.1, S. 1–3. <ptr type="gbv" cRef="552258482"/></bibl>
<bibl xml:id="manning_foundations_2001">Christopher D. Manning / Hinrich
Schütze: Foundations of Statistical Natural Language Processing.
Cambridge, MA 2001. <ptr type="gbv" cRef="327605863"/></bibl>
<bibl xml:id="rommel_studies_2004">Thomas Rommel: Literary studies. In:
Companion to Digital Humanities. Hg. von R. Siemens / J. Unsworth / S.
Schreibman. Oxford 2004. <ptr type="gbv" cRef="379865556"/></bibl>
<bibl xml:id="schmidt_inadequacy_2010">Desmond Schmidt: The inadequacy of
embedded markup for cultural heritage texts. In: Literary and Linguistic
Computing 25 (2010), S. 337–356. <ptr type="gbv" cRef="338767851"
/></bibl>
<bibl xml:id="looy_media_2003">Jan Van Looy / Jan Baetens: Close Reading New
Media. Analyzing Electronic Literature. Leuven 2003. <ptr type="gbv"
cRef="381615472"/></bibl>
</listBibl>
</div>
</div>
</div>
</body>
</text>
</TEI>