Skip to content
Snippets Groups Projects
vernetzung_2015.xml 97.44 KiB
<?xml version="1.0" encoding="UTF-8"?>
<?xml-model href="http://www.zfdg.de/sites/default/files/schema/tei_zfdg.rnc" type="application/relax-ng-compact-syntax"?>


<TEI xmlns="http://www.tei-c.org/ns/1.0" xmlns:html="http://www.w3.org/1999/html"
    xmlns:tei="http://www.tei-c.org/ns/1.0" xmlns:xlink="http://www.w3.org/1999/xlink"
    xmlns:xhtml="http://www.w3.org/1999/xhtml">
    <teiHeader>
        <fileDesc>
            <titleStmt>
                <title>
                    <biblStruct>
                        <analytic>
                            <title level="a">Die Vernetzung des Textes: Im Möglichkeitsraum
                                digitaler Literaturanalyse</title>
                            <respStmt>
                                <resp>
                                    <persName>
                                        <name role="marc_aut">
                                            <forename>Christine</forename>
                                            <surname>Ivanovic</surname>
                                        </name>
                                        <email>christine.ivanovic@univie.ac.at</email>
                                        <idno type="gnd">115731776</idno>
                                        <idno type="orcid"/>
                                    </persName>
                                </resp>
                                <orgName>Abteilung für Vergleichende Literaturwissenschaft an der
                                    Universität Wien, Institut für Corpuslinguistik und
                                    Texttechnologien (ICLTT) der Österreichischen Akademie der
                                    Wissenschaften (ÖAW)</orgName>
                            </respStmt>
                            <idno type="doi">10.17175/2016_010</idno>
                            <idno type="ppn">868714151</idno>
                            <idno type="zfdg">2016.010</idno>
                            <idno type="url">http://www.zfdg.de/2016_010</idno>
                            <date when="2017-02-10">10.02.2017</date>
                        </analytic>
                        <monogr>
                            <title level="j">Zeitschrift für digitale Geisteswissenschaften</title>
                            <respStmt>
                                <resp>Publiziert von</resp>
                                <orgName role="marc_pbl">Herzog August Bibliothek</orgName>
                            </respStmt>
                            <respStmt>
                                <resp>Transformation der Word Vorlage nach TEI</resp>
                                <persName/>
                                <name role="marc_trc">
                                    <surname>Steyer</surname>
                                    <forename>Timo</forename>
                                    <idno type="gnd">1053806175</idno>
                                </name>
                            </respStmt>
                            <respStmt>
                                <resp>Übersetzung des Abstract ins Englische</resp>
                                <name role="marc_trl">
                                    <forename>Kathleen Marie</forename>
                                    <surname>Smith</surname>
                                </name>
                            </respStmt>
                            <availability status="free">
                                <p>Available at <ref target="http://www.zfdg.de"
                                        >http://www.zfdg.de</ref>
                                </p>
                            </availability>
                            <biblScope unit="year">2016</biblScope>
                            <biblScope unit="artikel">10</biblScope>
                        </monogr>
                    </biblStruct>
                </title>
            </titleStmt>
            <editionStmt>
                <edition>Elektronische Ausgabe nach TEI P5</edition>
            </editionStmt>
            <publicationStmt>
                <distributor>
                    <name>
                        <orgName>Herzog August Bibliothek Wolfenbüttel</orgName>
                    </name>
                </distributor>
                <date when="2017-02-10">10.02.2017</date>
                <!-- Normdaten der Zeitschrift  -->
                <idno type="doi">10.17175/zfdg.01</idno>
                <authority>
                    <name>Herzog August Bibliothek</name>
                    <address>
                        <addrLine>Lessingplatz 1</addrLine>
                        <addrLine>38304 Wolfenbüttel</addrLine>
                    </address>
                </authority>
                <authority>
                    <name>Forschungsverbund MWW</name>
                    <address>
                        <addrLine>Wallotstraße 19</addrLine>
                        <addrLine>14193 Berlin</addrLine>
                    </address>
                </authority>
                <availability status="free">
                    <p> Sofern nicht anders angegeben </p>
                    <licence target="http://creativecommons.org/licenses/by/4.0/">CC BY SA
                        4.0</licence>
                </availability>
                <availability status="free">
                    <p> Available at <ref target="workID">http://www.zfdg.de; (c) Forschungsverbund
                            MWW</ref>
                    </p>
                </availability>
            </publicationStmt>
            <sourceDesc>
                <p>Einreichung als Fachartikel in der ZfdG durch die Autoren</p>
            </sourceDesc>
        </fileDesc>
        <encodingDesc>
            <editorialDecl>
                <p>Transformation der WORD-Vorlage nach XML/TEI-P5 durch TEI-Oxgarage und
                    XSLT-Skripten</p>
            </editorialDecl>
            <editorialDecl>
                <p xml:lang="de">Lektorat des Textes durch die Redaktion in Person von
                        <persName>Constanze Baum</persName>.</p>
            </editorialDecl>
            <editorialDecl>
                <p>Medienrechte liegen bei den Autoren</p>
            </editorialDecl>
            <editorialDecl>
                <p>All links checked<date when="2017">10.02.2017</date>
                </p>
            </editorialDecl>
        </encodingDesc>
        <profileDesc>
            <creation>Einreichung als Artikel der Zeitschrift für digitale
                Geisteswissenschaften</creation>
            <langUsage>
                <language ident="de">Text in Deutsch</language>
                <language ident="en">Abstract in English</language>
            </langUsage>
            <textClass>
                <keywords scheme="gnd">
                    <term><ref target="4036034-9">Literaturwissenschaft</ref></term>
                    <term><ref target="1038714850">Digital Humanities</ref></term>
                    <term><ref target="4688372-1">Semantic Web</ref>
                    </term>
                </keywords>
            </textClass>
        </profileDesc>
        <revisionDesc>
            <change/>
        </revisionDesc>
    </teiHeader>
    <text>
        <body>
            <div>
                <div type="abstract">
                    <argument xml:lang="de">
                        <p>Die Digitalisierung von Texten, die Erarbeitung komplexer digitaler
                            Editionen und die Herstellung maschinell analysierbarer Korpora sind
                            Hauptaufgaben gegenwärtiger digitaler Philologie. Diese baut vielfach
                            auf Methoden und Erkenntnissen auf, wie sie in der Computerlinguistik
                            seit Jahrzehnten erprobt werden. Sie müssen jedoch für die Anforderungen
                            der literaturwissenschaftlichen Analyse beispielsweise in ihrer
                            Granularität angepasst werden. Der Beitrag skizziert mögliche
                            Vorgehensweisen bei der digitalen Verarbeitung großer Textmengen
                            respektive der Entwicklung komplexer Annotationsverfahren. Sie verändern
                            die Ausgangssituation philologischer Forschung noch weiter, wenn die
                            Texte im Internet verfügbar sind. Daher werden in einem zweiten Schritt
                            die daraus sich ergebenden neuen Möglichkeiten der Analyse literarischer
                            Texte diskutiert. Neben der Entwicklung von Verfahren zur systematischen
                            und nachprüfbaren Literaturanalyse großer Textkorpora geht es dabei um
                            die Darstellung der Mehrdimensionalität literarischer Texte durch
                            Datenverknüpfung im Semantic Web. Literarische Texte können dadurch auch
                            anderen Disziplinen zur Evaluierung zugänglich gemacht werden. </p>
                    </argument>

                    <argument xml:lang="en">
                        <p>The main tasks of contemporary digital philology are the digitization of
                            texts, the development of complex digital editions, and the creation of
                            text corpora that can be analyzed by machines. These activities build on
                            methods and findings that have been explored in computer linguistics for
                            decades. There is, however, a need to adapt those procedures to the
                            requirements of literary analysis, such as in their granularity. This
                            paper outlines possible approaches for the digital processing of large
                            volumes of text and for the development of complex annotation processes.
                            These methods change the very basis of literary analysis, especially if
                            the texts are available on the internet. The next step, therefore, is to
                            discuss the new possibilities for the analysis of literary text that
                            arise from this situation. These possibilities go beyond the mere
                            development of procedures for systematic and verifiable literary
                            analysis of large text corpora. One new step, for example, would be the
                            representation of multi-dimensional qualities of literary texts by data
                            linkage in the Semantic Web, which could make literary texts available
                            for other disciplines as well.</p>
                    </argument>
                </div>
                <div type="chapter">
                    <p><quote type="motto">Il faut confronter les idées vagues avec des images
                            claires</quote> – Jean-Luc Godard, 1967 (<quote>La Chinoise</quote>)</p>
                    <p><quote type="motto">Alles, was Gegenstand wissenschaftlichen Denkens
                            überhaupt sein kann, verfällt, sobald es zur Bildung einer Theorie reif
                            ist, der axiomatischen Methode und damit mittelbar der
                            Mathematik.</quote> – <ref type="bibliography"
                            target="#hilbert_denken_1970">David Hilbert, 1918</ref></p>

                </div>
                <div type="chapter">
                    <head>1. Vom Wörterzählen zur Datenvernetzung</head>

                    <p>Zwei Wege führen an den Punkt, wo sich die Computerphilologie heute befindet:
                        Der eine geht auf eine Initiative des Jesuitenpaters Roberto Busa zurück,
                        der zwischen 1940 und 1947 gemeinsam mit IBM Gründer Thomas J. Watson eine
                        computergestützte Lemmatisierung der Werke von Thomas von Aquin vornahm und
                        mit dem <bibl>
                            <title type="desc">Index Thomisticus</title>
                        </bibl> das früheste Beispiel digitaler Textanalyse vorlegte (seit 2005
                        online verfügbar<note type="footnote">
                            <ref target="http://www.corpusthomisticum.org/it/index.age"
                                >http://www.corpusthomisticum.org/it/index.age</ref>.</note>). Bis
                        zu seinem Tod 2011 verfolgte Buso den Ansatz computergestützter Hermeneutik
                        und Lexikographie. In Deutschland bemühte sich der Philosoph Max Bense um
                        die Einbeziehung von Informationstheorie und Computertechnik in seine
                        Analysen der Strukturen von Sprache.<note type="footnote">
                            <ref type="bibliography" target="#bense_theorie_1962">Bense 1962</ref>;
                                <ref type="bibliography" target="#bense_einfuehrung_1969">Bense
                                1969</ref>.</note> In England versuchte der aus Südafrika
                        eingewanderte Mathematiker und spätere Literaturnobelpreisträger J.M.
                        Coetzee an die stilometrischen Analysen des deutschen Physikers Wilhelm
                        Fucks anzuknüpfen, der in den fünfziger Jahren quantitative Methoden in
                        Literaturwissenschaft und Linguistik eingeführt hatte.<note type="footnote">
                            <ref type="bibliography" target="#fucks_analyse_1955">Fucks
                            1955</ref>.</note> In seiner Dissertation von 1969 legte Coetzee
                        erstmals stilometrische Analysen der englischen Texte von Samuel Beckett mit
                        mathematischen Methoden vor.<note type="footnote">
                            <ref type="bibliography" target="#coetzee_fiction_1969">Coetzee
                                1969.</ref></note>
                    </p>
                    <p>Der andere Weg kommt aus der langen Geschichte der Editionsphilologie. Die
                        ersten digitalen Editionen entstanden Anfang der neunziger Jahre mit der
                        kommerziellen Verbreitung der CD-ROM; erstmals war ein mobiler Datenträger
                        gefunden worden, der genug Speichervolumen für ein ganzes Buch mit
                        Anmerkungen (oder für 74 Minuten Musik) aufwies. Eines der frühesten
                        Projekte war die Digitalisierung der Buchausgabe der Colli/Montinari-Edition
                        der Werke Nietzsches, die der Verlag de Gruyter 1994–1997 auf CD-ROM
                        herausbrachte und die inzwischen online zugänglich ist.<note type="footnote">
                            <ref target="http://www.nietzschesource.org/documentation/de/eKGWB.html"
                                >http://www.nietzschesource.org/documentation/de/eKGWB.html</ref>.</note>
                        Eines der jüngsten ist die ebenfalls online einsehbare 3D-Ausgabe der Ogham
                        Stones durch das <term type="corporate" ref="https://www.dias.ie/">Dublin
                            Institute of Advanced Studies</term>; es handelt sich um ein irisches
                        Nationaldenkmal und einmaliges Zeugnis einer frühen Stufe der irischen
                        Sprache und ihres Alphabets, das als Inschrift auf Steinen überliefert
                            ist.<note type="footnote"><ref
                                target="https://ogham.celt.dias.ie/menu.php?lang=en"
                                >https://ogham.celt.dias.ie/menu.php?lang=en</ref>. Zur
                            Entwicklungsgeschichte digitaler Editionen vgl. auch <ref
                                target="http://www.digitale-edition.de/"
                                >http://www.digitale-edition.de</ref>.</note>
                    </p>
                    <p>Digitale literaturwissenschaftliche Projekte sind mehrheitlich Editionen, die
                        sich nun in den, wie oft betont wird, <quote>schier unbegrenzten</quote>
                        Speicherraum des World Wide Web ausdehnen. Neben exklusiven, aufwendig
                        erstellten kritischen digitalen Ausgaben repräsentativer Werke<note
                            type="footnote"> Als ein Beispiel sei hier die Klagenfurter Ausgabe der
                            Werke Robert Musils genannt (<ref type="bibliography"
                                target="#musil_ausgabe_2009">Musil 2009</ref>). Vgl. dazu <ref
                                type="bibliography" target="#salgaro_ausgabe_2014">Salgaro
                                2014</ref>.</note> werden heute in großem Umfang Digitalisierungen
                        ganzer Bibliotheken durchgeführt, um wertvolle Altbestände zu erhalten oder
                        um große Korpora für die Öffentlichkeit zugänglich zu machen.<note
                            type="footnote">
                            <ref type="bibliography" target="#lauer_vermessung_2013">Lauer
                                2013</ref>; <ref type="bibliography"
                                target="#lauer_weltbibliothek_2014">Lauer 2014</ref>.</note>
                        Motivation, Organisation, technische Durchführung und Nutzungskonzepte
                        können dabei stark variieren.<note type="footnote"> Das Spektrum reicht von
                            der mit <term type="corporate"
                                ref="https://www.deutsche-digitale-bibliothek.de/">Deutschen
                                Digitalen Bibliothek</term>18.098.542 Objekten (davon 6.129.980 mit
                            Digitalisat) über das <ref target="http://www.deutschestextarchiv.de/"
                                >Deutsche Textarchiv</ref> mit 474 326 digitalisierten Seiten bis
                            zum <ref target="http://www.zvdd.de/">zentralen Verzeichnis
                                digitalisierter Drucke</ref>, das derzeit 1.339.130 Titel
                            registriert, um nur einige Beispiele aus dem deutschsprachigen Raum zu
                            nennen. Eine repräsentative Auswahl verzeichnet die <ref
                                target="http://glc.chadwyck.com/">German Literature
                            Collection</ref>, über die einschlägige Werkausgaben von Goethe,
                            Schiller, Kafka und Brecht, sowie <quote>Die deutsche Lyrik</quote>
                            (basierend auf Ausgaben aus Reclams Universalbibliothek) und
                                <quote>Deutsche Klassiker</quote> (basierend auf der Bibliothek
                            Deutscher Klassiker) abgerufen werden können. Für die wissenschaftliche
                            Analyse bereits mit XML/TEI erschlossene Texte findet man als Digitale
                            Bibiothek im <ref target="https://textgrid.de/Digitale-Bibliothek"
                                >TextGrid Repository</ref>.</note> Wichtige Korpora wurden und
                        werden von nationalen Institutionen in Auftrag gegeben und verwaltet;<note
                            type="footnote"> In Österreich wäre beispielweise das AAC zu nennen, das
                            vom ICLTT an der ÖAW erstellt wurde <ref
                                target="http://corpus1.aac.ac.at/fackel/"
                                >http://corpus1.aac.ac.at/fackel/</ref>.</note> daneben gibt es die
                        digitale Texterfassung durch Freiwillige<note type="footnote">
                            <ref target="http://gutenberg.spiegel.de/"
                                >http://gutenberg.spiegel.de/</ref>.</note> oder durch Firmen. So
                        hat Google einen immensen und teilweise frei zugänglichen Datenbestand mit
                        Unterstützung zahlreicher Universitätsbibliotheken aufgebaut.<note
                            type="footnote"><ref target="https://books.google.com/"
                                >https://books.google.com/</ref>. Vgl. auch die Textscans, die der
                                <ref target="https://www.hathitrust.org/">Hathi Trust</ref> online
                            gestellt hat.</note> Datenerhalt und Archivierung großer Textmengen
                        sowie leichtere Zugänglichkeit, Durchsuchbarkeit und bessere Auffindbarkeit
                        von Textstellen sind die Vorzüge der Anwendung digitaler Methoden in diesem
                        Bereich.</p>
                    <p>Obwohl schon vor mehr als einem halben Jahrhundert vielfältige Ansätze dazu
                        gemacht wurden,<note type="footnote"> Vgl. neben den Ansätzen bei den oben
                            genannten Autoren auch noch <ref type="bibliography"
                                target="#kenny_computation_1982">Kenny 1982</ref>. Auch er kommt wie
                            Busa aus kirchlichem Kontext.</note> hat sich die Literaturwissenschaft
                        im Gegensatz zur statistischen Sprachanalyse, wie sie in der
                        Computerlinguistik weit fortgeschritten ist, in der Anwendung von
                        Informationstechnologie bei der Textanalyse, geschweige denn bei der
                        Institutionalisierung einer ›Computerliteraturwissenschaft‹ bisher eher
                        zurückhaltend gezeigt.<note type="footnote"> Die Entwicklung von Methoden
                            digitaler Literaturanalyse und die Anzahl einschlägiger Publikationen
                            hat sich seit Beginn dieses Jahrhunderts allerdings rapide entwickelt.
                            Das im Wintersemester 2011/2012 an der <term type="corporate"
                                ref="http://www.uni-goettingen.de/">Universität Göttingen</term>
                            entstandene <ref
                                target="http://litre.uni-goettingen.de/index.php/Hauptseite">Wiki
                                zur digitalen Textanalyse</ref> beschreibt aus den schon zur
                            Verfügung stehenden Tools zur digitalen Textanalyse eine Auswahl von
                            acht. Die 2011 vom <term type="corporate"
                                ref="http://www.cceh.uni-koeln.de/">Cologne Center for eHumanities
                                (CCeH)</term> herausgegebene Broschüre <ref
                                target="http://dig-hum.de/sites/dig-hum.de/files/cceh_broschuereweb.pdf "
                                >Digitale Geisteswissenschaften</ref> skizziert zwar einschlägige
                            Studiengänge an bereits 13 Studienorten, darunter aber noch kein
                            Programm mit explizitem Schwerpunkt auf der Literatur(analyse).
                            Lediglich die <term type="corporate" ref="https://www.tu-darmstadt.de/"
                                >TU Darmstadt</term> bot damals einen MA Studiengang
                                <quote>Linguistic and Literary Computing</quote> (jedoch ohne
                            speziellen Bezug zur Literaturanalyse) an. Am nähesten kommen diesem
                            Interesse bisher die an der <term type="corporate"
                                ref="https://www.uni-wuerzburg.de/startseite/">Universität
                                Würzburg</term> angebotenen BA und MA Studiengänge <quote>Digital
                                Humanities</quote>.</note> Bei der digitalen Edition ist die
                        Verankerung in einer traditionellen textphilologischen Teildisziplin
                        unübersehbar. Hier kann die digitale Technologie nicht nur jene Prozesse
                        unterstützen und vereinfachen, die zuvor in mühsamer Handarbeit durchgeführt
                        werden mussten. Sie kann auch dazu beitragen, neue Formate für die
                        Erfassung, Darstellung und Analyse der Mehrschichtigkeit textueller
                        Strukturen zu erarbeiten. Dementsprechend präsent, gefördert und anerkannt
                        sind die einschlägigen Projekte im Feld der Digital Humanities.<note
                            type="footnote"> Zu verweisen ist hier im Besonderen auf die speziell
                            für die Geisteswisenschaften eingerichteten Forschungsumgebungen <ref
                                target="https://textgrid.de/">TextGrid</ref> (gefördert 2006–2105)
                            sowie als deren Nachfolgerin die Digitale Forschungsinfrastruktur für
                            die Geistes- und Kulturwissenschaften <ref
                                target="http://www.dariah.eu/">DARIAH-EU</ref> bzw.
                            DARIAH-DE.</note>
                    </p>
                    <p>Wie wäre weiter vorzugehen? Der Beitrag schlägt einen Weg vor, der die
                        digitale Texterfassung mit den Methoden korpusbasierter Analyse enger
                        zusammenführt. Dabei gehe ich vor allem auf die mit dem World Wide Web
                        gegebenen Möglichkeiten ein. Mit dem Internet liegt ein potentielles Medium
                        der Erkenntnisgewinnung vor: erstens ist es ein immenser, weithin
                        zugänglicher Datenspeicher, und zweitens bietet es mit der Verknüpfbarkeit
                        von Dokumenten die Möglichkeit, die Verweisstruktur von Texten auf neue
                        Weise sichtbar zu machen. Es erlaubt mittels Datenvernetzung eine
                        Darstellung der von Derrida fokussierten <quote>differentiellen Verweisung
                            von einer [Text]Spur auf die andere</quote><note type="footnote">
                            Derridas im Gespräch formulierte Darstellung der Grundidee
                            (literaturwissenschaftlicher) Dekonstruktion war Ausgangspunkt der im
                            Folgenden entwickelten Überlegungen. Daher soll sie hier noch einmal im
                            Zusammenhang zitiert werden: <quote>Das, was ich also Text nenne, ist
                                alles, ist praktisch alles. Es ist alles, das heißt, es gibt einen
                                Text, sobald es eine Spur gibt, eine differentielle Verweisung von
                                einer Spur auf die andere. Und diese Verweise bleiben nie stehen. Es
                                gibt keine Grenzen der differentiellen Verweisung einer Spur auf die
                                andere. Eine Spur ist weder eine Anwesenheit noch eine Abwesenheit.
                                Folglich setzt dieser neue Begriff des Textes, der ohne Grenzen ist
                                ich habe deshalb gesagt, auch als scherzhafte Bemerkung, es gäbe
                                kein Außerhalb des Textes -, folglich setzt dieser neue Begriff des
                                Textes voraus, daß man in keinem Moment etwas außerhalb des
                                Bereiches der differentiellen Verweisungen fixieren kann, das ein
                                Wirkliches, eine Anwesenheit oder eine Abwesenheit wäre, etwas, das
                                nicht es selbst wäre, markiert durch die textuelle différance, durch
                                den Text als différance mit einem ›a‹.</quote> (zit. nach <ref
                                type="bibliography" target="#engelmann_randgaenge_1988">Engelmann
                                1988</ref>, S. 107f.) Zur Auseinandersetzung mit Derrida im Kontext
                            der Digital Humanities vgl. u.a. <ref type="bibliography"
                                target="#baillot_reconstruire_2015">Baillot 2015</ref>.</note> im
                        mehrdimensionalen Raum und bietet damit weitreichende Möglichkeiten für eine
                        Literaturanalyse, die außer von der Literaturwissenschaft auch von anderen
                        Disziplinen effektiv genutzt werden könnten.</p>
                </div>
                <div type="chapter">
                    <head>2. Das World Wide Web als Möglichkeitsraum digitaler
                        Literaturanalyse</head>

                    <p>Dem vor etwas mehr als 25 Jahren geschaffenen und stetig erweiterten
                        digitalen Datenraum des World Wide Web (Netzes)<note type="footnote">
                            <ref type="bibliography" target="#berners_web_1999">Berners-Lee /
                                Fischetti 1999</ref>.</note> werden unter anderem folgende
                        Eigenschaften zugeschrieben:</p>
                    <list type="unordered">

                        <item>unbegrenzte Kapazität für langfristige Speicherung von Daten;</item>

                        <item>unbegrenzte Verfügbarkeit der Daten in Raum und Zeit; im Prinzip ist
                            es technisch möglich jederzeit von jedem Ort der Erde auf jedes Dokument
                            zuzugreifen;</item>

                        <item>freie Zugänglichkeit (open access) für eine große Menge von Daten,
                            Tendenz steigend.</item>

                    </list>
                    <p>Das Netz stellt kein statisches Archiv dar, sondern einen virtuellen
                        Speicherraum, der permanent neu organisiert wird. Die dabei vorgenommenen
                        Operationen bewirken </p>
                    <list type="unordered">

                        <item>die anhaltende Evolution des World Wide Web durch beständige
                            Erweiterung respektive Veränderung der schon vorhandenen Daten; jeder
                            kann Daten eingeben oder, sofern diese zugänglich sind, bestehende Daten
                            verändern;</item>

                        <item>die Generierung separat evaluierbarer Metadaten;</item>

                        <item>die Bildung der Netzstruktur durch Verknüpfung der Daten
                            untereinander.</item>

                    </list>
                    <p>Prinzipielle Offenheit und unvergleichliche Kapazität des World Wide Web
                        einerseits, die permanent weiter entwickelte Vielfalt und Variabilität der
                        darauf bezogenen Operationen andererseits, legen es nahe zu überlegen, ob
                        und inwieweit die Daten im World Wide Web einen neuartigen Möglichkeitsraum
                        für die Literaturanalyse bilden, in dem sich die mehrdimensionale Vernetzung
                        literarischer Texte anders als bisher aufzeigen, darstellen und erforschen
                        lässt. Ansätze zur Visualisierung literaturwissenschaftlich relevanter Daten
                        im Netz sind schon partiell erprobt worden und werden zunehmend weiter
                            entwickelt.<note type="footnote"> So gibt es beispielsweise im Bereich
                            der Erforschung von Stadt(-literatur) schon diverse Darstellungen im
                            Netz. Vgl. neben dem von Barbara Piatti u.a. erarbeiteten <ref
                                target="http://www.literaturatlas.eu/">Literaturatlas Europas</ref>,
                            das von Todd Presner und anderen an der UCLA betriebene Projekt <ref
                                target="http://www.hypercities.com/">Hypercities</ref> oder eine
                            typische Sammlung von stadtbezogener Literatur, hier zu <ref
                                target="http://www.ed.ac.uk/schools-departments/literatures-languages-cultures/english-literature/research-activities/palimpsest/overview"
                                >Edinburgh</ref>.</note> Eine Evaluierung der mit dem World Wide Web
                        verbundenen Möglichkeiten wissenschaftlicher Analyse literarischer Texte
                        hingegen steht noch aus. Im folgenden sollen bereits erprobte Verfahren wie
                        auch absehbare Perspektiven einer durch die digitale Textverarbeitung
                        unterstützten, netzbasierten Literaturwissenschaft skizziert werden, wobei
                        der Schwerpunkt meiner Überlegungen auf der Verknüpfung von Daten liegt.</p>
                </div>
                <div type="chapter">
                    <head>3. Texte im Netz</head>

                    <p>Ein – überraschend kleiner – Teil der im Netz mittels Informationstechnologie
                        erzeugten und verwalteten Daten stammt aus Texten in natürlichen Sprachen.
                        Literaturwissenschaftlich im engeren Sinne relevant sind</p>
                    <list type="unordered">

                        <item>Digitalisate, d.h. (literarische) Texte, die ursprünglich in anderen
                            Formaten ediert wurden und weiter existieren, die nun zusätzlich im Netz
                            verfügbar gemacht werden (DTA, Gutenberg, Google Books u.a.); nicht alle
                            dieser Digitalisate sind schon maschinenlesbar, vielfach handelt es sich
                            um Textscans;</item>

                        <item>Digitale Literatur, d.h. (literarische) Texte, die ursprünglich in
                            digitaler Form verfasst und ins Netz gestellt wurden; das Spektrum
                            reicht von Weblogs über Netzliteratur(-magazine) bis zu hochgradig
                            verlinkten Formen wie Hyperfiktion;<note type="footnote"> Vgl. dazu u.a.
                                    <ref type="bibliography" target="#herring_weblogs_2005">Herring
                                    et al. 2005</ref>; <ref type="bibliography"
                                    target="#suter_hyperfiction_2000">Suter 2000</ref>; <ref
                                    type="bibliography" target="#suter_hyperfiction_2001">Böhler
                                    2001</ref>; <ref type="bibliography"
                                    target="#giacomuzzi_literaturmagazine_2012">Giaccomuzzi
                                    2012</ref>.</note>
                        </item>

                        <item>Texte und weitere Daten (Bilder, Sounddateien u.a.), die
                            literaturwissenschaftlich relevante Informationen enthalten;
                            traditionelle Hilfsmittel wie Wörterbücher, biographische Lexika,
                            Bibliographien, Enzyklopädien und andere Nachschlagewerke finden sich
                            heute zunehmend durch Internetdatenbanken wie Wikipedia ersetzt.</item>

                    </list>
                    <p>Die Anzahl der im Netz verfügbaren und literaturwissenschaftlich
                        evaluierbaren Texte nimmt rapide zu. Texte, die bisher mangels
                        Zugänglichkeit kaum wissenschaftliche Berücksichtigung gefunden haben, wie
                        zum Beispiel nicht-kanonisierte Texte, Literaturen in ›kleinen‹ Sprachen,
                        Texte in entlegenen, vergriffenen oder vergessenen Ausgaben etc., werden
                        zunehmend greifbar und sollten in einschlägige Untersuchungen einbezogen
                        werden. Damit entsteht ein enormer Druck auf die Philologien, die an der
                        Textbasis veränderte Ausgangslage ihrer Forschungen zur Kenntnis zu nehmen
                        und ihr methodisch zu entsprechen.</p>
                    <p>Untersuchungen, die allgemeine Aussagen beispielsweise zu einer Epoche, zu
                        einer Gattung, oder zur Literatur einer Sprache machen wollen (als
                        Standardbeispiel: <quote>Der englische Roman des 19. Jahrhunderts</quote>)
                        müssen sich heute nicht mehr nur auf die schon bekannten respektive
                        kanonisierten Texte beschränken, sondern können die bisherigen Erkenntnisse
                        an großen Korpora überprüfen und weiter ausdifferenzieren. Trotz der
                        zunehmenden Verfügbarkeit von Texten im Netz repräsentieren die vorhandenen
                        Daten allerdings noch lange nicht das gesamte Spektrum der in der
                        Literaturwissenschaft zu untersuchenden Literaturen. Restringiert bleibt
                        weiterhin der Zugang insbesondere zu urheberrechtlich geschützten Werken und
                        damit zum größten Teil der Literatur des 20. und 21. Jahrhunderts. Digitale
                        Literaturanalysen stützen sich deshalb bisher mehrheitlich auf vor 1900
                        erschienene Texte.</p>
                    <p>Gleichwohl werden Untersuchungen zur Gegenwartsliteratur die Webpräsenz
                        zeitgenössischer Texte nicht ignorieren können. Dies betrifft Autoren und
                        Autorinnen wie Elfriede Jelinek, die ihre Texte primär im Netz
                            veröffentlichen,<note type="footnote">
                            <ref target="http://www.elfriedejelinek.com/"
                                >http://www.elfriedejelinek.com/</ref>.</note> ebenso wie mit
                        digitalen Technologien entwickelte Textformate, welche sich im Druck gar
                        nicht oder nicht mehr genre-adäquat darstellen lassen wie Hyperfiktion oder
                            Twitterature.<note type="footnote">
                            <ref type="bibliography" target="#aciman_twitterature_2009">Aciman /
                                Rensin 2009</ref>.</note> Sie verlangen ebenso nach neuen Methoden
                        der literaturwissenschaftlichen Evaluierung wie die digitalisierten
                        Texte.</p>
                </div>
                <div type="chapter">
                    <head>4. Netzstruktur und Textstruktur</head>

                    <p>Wenn digitalisierte, d.h. in maschinenlesbare Formate gebrachte, Texte ›ins
                        Netz gestellt‹ werden, können sie dort mit anderen Daten verknüpft werden.
                        Eben durch diese Verknüpfung wird die Netzstruktur des World Wide Web
                        ermöglicht.</p>
                    <p>Hierbei erscheint bemerkenswert, dass der Aufbau des Netzes wie der Umgang
                        mit dem Netz Parallelen zum Aufbau von und dem Umgang mit (literarischen)
                        Texten aufweist, d.h. das Netz hat eine Reihe strukturell relevanter
                        Eigenschaften, die sich mit denjenigen von in natürlichen Sprachen
                        abgefassten Texten vergleichen lassen.</p>
                    <p>Ein verständiger Leser bezieht das Gelesene während der Lektüre unaufhörlich
                        auf seinen Wissens- respektive Erfahrungshorizont inklusive früherer
                        Lektüren; nur so kann er sich den Sinn des Textes erschließen.<note
                            type="footnote"> Vgl. dazu sowohl <ref type="bibliography"
                                target="#gadamer_wahrheit_1960">Gadamers <bibl>
                                    <title type="desc">Hermeneutik</title>
                                </bibl> (1960)</ref> wie die Dekonstruktion nach <ref
                                type="bibliography" target="#derrida_schrift_1976">Derrida
                                (1976</ref>, <ref type="bibliography"
                                target="#derrida_grammatologie_1983">1983</ref>).</note> Während des
                        Lesens ›vernetzt‹ er das Gelesene also unaufhörlich ›in seinem Kopf‹ mit
                        einzelnen Elementen aus diesem Vorwissen: Er verknüpft den Text in einem
                        Netz, dessen Konstellation durch jede neu aufgenommene Information wieder
                        verändert wird.<note type="footnote"> Diese Vorstellung formuliert sinngemäß
                            erstmals 1919 T.S. Eliot in seinem Essay <bibl>
                                <title type="desc">Tradition and The Individual Talent</title>
                            </bibl> (<ref type="bibliography" target="#eliot_essays_1932">Eliot
                                1932</ref>).</note> Dieses Netz ist virtuell oder (im Sinne von
                        Benedict Anderson) imaginär,<note type="footnote">
                            <ref type="bibliography" target="#anderson_communities_1983">Anderson
                                1983</ref>.</note> da es eine Menge von Informationen enthält, die
                        vielen Menschen gemeinsam oder gleichzeitig zugänglich sind. Von jedem
                        einzelnen Menschen wird aber nur ein für ihn spezifischer, einmaliger Teil
                        davon erfasst. Ähnlich verhält es sich auch mit dem World Wide Web.</p>
                    <p>Gewöhnlich verstehen wir das World Wide Web als Akkumulation großer Mengen an
                        digitalen Daten, die in unterschiedlicher Dichte miteinander verknüpft und
                        weltweit zugänglich sind. Das Verhältnis der im World Wide Web verwalteten
                        Daten zu dem, was wir als ›Welt‹ auffassen, ist mindestens zweifach
                        strukturiert:</p>
                    <list type="unordered">

                        <item>semiotisch/symbolisch: im Netz werden Informationen, die sich auf
                            etwas außerhalb davon Liegendes beziehen, in Daten übersetzt und
                            verwaltet; der ›Entortung‹ der in Daten umgewandelten Informationen im
                            geopolitischen Raum korrespondiert deren neue Verortung im global
                            zugänglichen Webkontext (URI); die ›Entzifferung‹ der Informationen
                            bedarf der Zuordnung zu Systemen, innerhalb derer der
                            semiotische/symbolische Code Gültigkeit hat und Bedeutung entfalten
                            kann;</item>

                        <item>operationell: die Daten werden durch Operationen natürlicher oder
                            künstlicher Intelligenz erzeugt und verwaltet; diese Operationen
                            auszuführen ist technisch im Prinzip jedem Nutzer möglich.</item>

                    </list>
                    <p>Texte lassen sich desgleichen als weitreichend verknüpfte Akkumulationen von
                        Informationen verstehen, die in natürlichen Sprachen repräsentiert sind und
                        die als Daten erfasst werden können. Auch hier ist der ›Weltbezug‹
                        semiotisch/symbolisch; die jeweilige Entzifferung der Informationen aus den
                        ihm vorliegenden Daten obliegt dem Leser, der dafür ebenfalls eine Reihe von
                        Operationen ausführen muss, durch welche die Zeichen des Textes in Sinn
                        übersetzt werden (vgl. <ref type="intern" target="#hd9">Abschnitt
                        7</ref>).</p>
                    <p>Wesentlich in diesem Zusammenhang ist das für beide, Netz wie Text,
                        konstitutive System der Verweisung bzw. der Verknüpfung: (Natürliche)
                        Sprachen und darin formulierte Texte können nur dann Bedeutung generieren
                        und kommunizieren, wenn sie auf Außersprachliches verweisen (d.h. sie
                        repräsentieren dieses zeichenhaft), und wenn sie sich mit anderen
                        sprachlichen Aussagen respektive Texten operationell verknüpfen lassen und
                        in dem imaginären Netz identifizierbar werden. Texte sind autorisierte
                        Knotenpunkte (nodes) im Netz sprachlicher Kommunikation. Sie generieren
                        Bedeutung, indem sie sich sprachlich auf vereinbarte Zeichen- und
                        Wertsysteme beziehen. Diese Bedeutung ist nie einsträngig; die Verknüpfungen
                        müssen auf mehreren Ebenen des Textes vom Leser aktualisiert und weiter
                        verfolgt werden (können).</p>
                    <p>Literaturwissenschaftliche Untersuchungen zielen auf Erkenntnis solcher
                        Verknüpfungsstrukturen, die in literarischen Texten hochgradig elaboriert
                        sind. D.h. es geht hier um den Nachweis der Mehrdimensionalität, die
                        literarische Texte in ihren vielfältigen Verknüpfungen mit anderen Texten
                        und Systemen herstellen und die sie als ein Qualitätsmerkmal
                        auszeichnet.</p>
                    <p>Daraus ergibt sich die Frage, inwiefern die Verfügbarkeit digitalisierter
                        Texte im Netz für den Nachweis, die Darstellung und die Analyse ihrer
                        Mehrdimensionalität genutzt werden kann, d.h. inwiefern das World Wide Web
                        nicht allein als Datenspeicher, sondern auch als Medium
                        literaturwissenschaftlicher Erkenntnis fungieren kann. </p>
                </div>
                <div type="chapter">
                    <head>5. Literaturwissenschaftliche Textanalyse</head>

                    <p>Um die Mehrdimensionalität von (literarischen) Texten aufzuzeigen, versuchen
                        literaturwissenschaftliche Textanalysen</p>
                    <list type="unordered">

                        <item>Texte strukturell zu erfassen, d.h. ihre Eigenschaften und deren
                            Relationen zueinander zu bestimmen, zu kategorisieren, und die Texte
                            diesen Eigenschaften entsprechend zu klassifizieren;</item>

                        <item>Texte hermeneutisch zu verstehen, d.h. den ›mehrfachen Schriftsinn‹,
                            die Bedeutung von Inhalt und Aussage in Abhängigkeit von der gewählten
                            sprachlichen Ausdrucksform, zu bestimmen;</item>

                        <item>Texte kontextuell zu verorten, d.h. ihre Eigenschaften auf sprachlich
                            und kulturell bedingte Ordnungen (Systeme) und deren historische
                            Verläufe zu beziehen und einzuschätzen.</item>

                    </list>
                    <p>Die literaturwissenschaftliche Analyse besteht demnach (i) aus der
                        Isolierung, Beschreibung und Klassifizierung ausgewählter Eigenschaften von
                        Texten, und (ii) aus der differenzierenden Zuordnung dieser Merkmale zu
                        bedeutungstragenden Systemen. Die Zuordnung (Verknüpfung) ist für das
                        Verstehen eines Textes unabdinglich; sie kann nur dann erfolgen, wenn die
                        Bezugsgrößen (richtig) identifiziert werden. Die Mehrdimensionalität eines
                        (literarischen) Textes – darin liegt ein Teil seines Reizes – impliziert
                        aber durchaus auch multiple Möglichkeiten der Zuordnung. Diese mögliche
                        Vielfalt muss in der Analyse mit erfasst werden. Sie zielt somit auf die
                        komplexe Erfassung dessen, was ich im Folgenden das
                            <quote>Referenzprofil</quote> eines Textes nennen möchte.<note
                            type="footnote"> Vgl. dazu auch <ref type="bibliography"
                                target="#ramsay_machines_2011">Ramsay 2011</ref>.</note>
                    </p>
                </div>
                <div type="chapter">
                    <head>6. Literaturwissenschaftliche Analyse digitalisierter Texte</head>

                    <p>Literarische Texte mit Unterstützung von Informationstechnologie zu
                        bearbeiten heißt, literaturwissenschaftliche Methoden teilweise
                        Computerprogrammen zu übertragen in der Erwartung, das Erreichen
                        fachspezifischer Arbeitsziele mit deren Unterstützung zu erleichtern oder zu
                        verbessern. Dies betrifft insbesondere mehr oder weniger mechanische,
                        systematisch durchzuführende Vorgänge wie zum Beispiel das Zählen und
                        Sortieren festgelegter Einheiten, wo über die Anwendung von Programmen eine
                        größere Vollständigkeit und geringere Fehlerrate erzielt werden können. Ein
                        gutes Beispiel dafür sind die digitalen Editionen, die die Textaufzeichnung
                        und -speicherung wie die Darstellungs- und Zugriffsmöglichkeiten gerade bei
                        Werkausgaben erheblich verbessert haben.</p>
                    <p>Für die computergestützte literaturwissenschaftliche Textanalyse wird der
                        Analysevorgang, den der wissenschaftliche Leser vollzieht, in einzelne
                        Schritte zerlegt, von denen einige durch Computerprogramme ausgeführt werden
                        können. Gegenwärtig geht es vor allem darum, Texte von Programmen lesen und
                        nach bestimmten Wörtern oder Textstellen durchsuchen zu lassen. In einem
                        zweiten Schritt geht es darum, Programme zu entwickeln, die die
                        Verknüpfungen innerhalb eines Textes und zwischen Texten erkennen und
                        annotieren können.</p>
                    <div type="subchapter">
                        <head>6.1 Vorbereitung maschinell durchgeführter Suchabfragen</head>

                        <p>Um Texte von Computerprogrammen durchsuchen zu lassen, müssen sie in
                            maschinell analysierbare Textformate gebracht werden.</p>
                        <p>Zuerst werden die zu untersuchenden Texte mittels <emph>OCR (Optical
                                Character Recognition)</emph> in ein maschinenlesbares Format
                            gebracht. Dieses Verfahren ist seit Längerem gut etabliert, kann
                            weitgehend automatisiert erfolgen und bedarf je nach Textvorlage
                            manueller Nachbearbeitung in meist überschaubarem Ausmaß.</p>
                        <p>Anschließend werden Texteigenschaften in einer Weise ausgezeichnet
                            (annotiert), die ihre Abfrage durch Computerprogramme ermöglicht. Auch
                            diese Auszeichnung kann durch bereits erprobte Programme durchgeführt
                            werden, bedarf aber ebenfalls der manuellen Ergänzung.</p>
                        <p>Die Annotierung baut einerseits auf Verfahren und Erkenntnissen auf, wie
                            sie zuerst in der computergestützten Edition Anwendung fanden (XML,
                                TEI).<note type="footnote">
                                <ref type="bibliography" target="#sahle_editionsformen_2013">Sahle
                                    2013</ref>, passim.</note> Des Weiteren kommen Verfahren aus der
                            Computerlinguistik zur Anwendung (<emph>FSPar, Stanford Core NLP,
                                CLAWS</emph>), wenn die digital bearbeiteten Texte zusätzlich mit
                            Tags für automatisiert durchzuführende Abfragen versehen werden (z.B.
                            Lemmatisierung, <emph>part of speech tags</emph>,
                                <emph>TreeTagger</emph>, <ref target="http://ucrel.lancs.ac.uk/"
                                >semantic tags</ref>).</p>
                        <p>Die Annotierung entspricht andererseits dem Ansatz klassischer und bis in
                            jüngere Zeit immer noch weiter verfeinerter literaturwissenschaftlicher
                            Kommentare zu Hauptwerken der Antike, des Mittelalters oder den
                            Klassikern der Moderne (die jüdische Thora als Kommentar zum Alten
                            Testament; Marsilius Ficino zu Platon; Boccaccio zu Dante...). Diese
                            Kommentare verfahren ebenfalls lemmatisierend; sie liefern Annotationen
                            zu einzelnen Worten oder Textstellen. Sie haben die Aufgabe, sprachliche
                            und textuelle Besonderheiten sowie möglicherweise unverständliche
                            Stellen hervorzuheben, zu beschreiben, zu erläutern, aufzuschlüsseln und
                            durch Belege aus anderen Quellen zu erklären. Ging es zunächst darum,
                            den ›mehrfachen Schriftsinn‹ eines hieratischen Textes zu (ent-)bergen,
                            so dienen spätere Kommentierungen der Entzifferung komplexer,
                            hybridisierter sprachlicher Strukturen<note type="footnote"> Zu Joyce
                                vgl. <ref type="bibliography" target="#gifford_notes_1989">Gifford /
                                    Seidman 1989</ref>.</note> oder intertextueller Bezugnahmen<note
                                type="footnote"> Zu Celan vgl. <ref type="bibliography"
                                    target="#lehmann_kommentar_2003">Lehmann / Ivanovic
                                2003</ref>.</note>, respektive der Bewahrung sprachlich-kulturellen
                            Wissens, das zeitgenössischen Lesern oft nicht mehr zur Verfügung steht.
                            Bei der digitalen Annotierung werden Erläuterungen in Form von
                            Querverweisen eingefügt, die im Kontext des World Wide Web als
                            verfolgbare Verknüpfungen (Links) fungieren können (vgl. <ref
                                type="verweis" target="#hd9">Abschnitt 7</ref>).</p>
                        <p>Die Entwicklung von für die Literaturanalyse geeigneten
                            Annotationsverfahren stellt gegenwärtig eine der zentralen Aufgaben in
                            der Entwicklung von Methoden digitaler Literaturanalyse dar. Eines der
                            wesentlichen Probleme dabei ist die Wahl der geeigneten Granularität.
                            Die Granularität muss gröber sein, als die in der Korpuslinguistik
                            angewandte (typische Einheiten wären Wort oder Satz); sie sollte feiner
                            sein als die etablierten literaturwissenschaftlichen Kategorien
                            (typische Einheiten wären Gattungen oder Schreibweisen). Mit der
                            Quantität sollte auch die Distribution der gesuchten Größen innerhalb
                            der Texte erfasst werden, indem man kleinere Texteinheiten (z.B.
                            Absätze) bei der Auszeichnung mit berücksichtigt. So kann man zum
                            Beispiel bei der Untersuchung des Auftretens von Personen in einer
                            Netzwerkanalyse das Auftreten der Personen in Relation zum jeweiligen
                            Raum registrieren und dabei gleichzeitig Texteinheiten (z.B. Absätze)
                            notieren. So können personenbezogene Handlungsstränge innerhalb eines
                            Textes abgegrenzt und verglichen werden.<note type="footnote"> Ansätze
                                dazu erproben wir gegenwärtig in einem auf die Analyse der Werke
                                Ilse Aichingers bezogenen Projekt, vgl. dazu <ref
                                    type="bibliography" target="#ivanovic_viennavigator_2015"
                                    >Ivanovic / Frank 2015.</ref></note>
                        </p>
                    </div>
                    <div type="subchapter">
                        <head>6.2 Bearbeitung, Auswertung und Darstellung von Suchergebnissen</head>

                        <p>Digitale Literaturanalysen, die auf der Auszeichnung von
                            Texteigenschaften beruhen, entsprechen der unter <ref type="intern"
                                target="#hd5">Abschnitt 5</ref> genannten strukturellen
                            Texterfassung. Das vereinheitliche Verfahren lässt sich als
                            automatisiertes Vorgehen auf eine unbegrenzt große Anzahl von Texten
                            anwenden und erlaubt die gleichen überprüfbaren Abfragen in einem
                            Textumfang, der weit über der menschlichen Lesekapazität liegt.</p>
                        <p>Wenn nicht nur ein einzelner Text, sondern wenn größere Textkorpora mit
                            derselben Methode untersucht werden, d.h. wenn dieselbe Suchabfrage an
                            vielen Texten durchgeführt wird, kommt man zu statistisch auswertbaren
                            Ergebnissen, die mit den in der Statistik oder in der Informatik
                            üblichen Mitteln dargestellt werden können: Graphen, Karten, Bäume,
                            Netze, Blasen etc. visualisieren die erzielten Suchergebnisse.
                            Ausführliche Beispiele dafür diskutiert Franco Moretti in seinen Büchern <bibl>
                                <title type="desc"><ref type="bibliography"
                                        target="#moretti_atlas_1999">Atlas des europäischen
                                        Romans</ref></title>
                            </bibl> (1999) sowie <bibl>
                                <title type="desc"><ref type="bibliography"
                                        target="#moretti_graphs_2005">Graphs, Maps,
                                    Trees</ref></title>
                            </bibl> (2005) und <bibl>
                                <title type="desc"><ref type="bibliography"
                                        target="#moretti_reading_2013">Distant Reading</ref></title>
                            </bibl> (2013). Solche Darstellungen gelten als attraktiv und
                            anschaulich. In den Literaturwissenschaften sind sie bisher nur sehr
                            begrenzt eingesetzt worden, finden aber zunehmend Akzeptanz. Dabei darf
                            nicht übersehen werden, dass sie Ergebnisse von Suchanfragen zwar
                            veranschaulichen, aber selbst noch der Analyse bedürfen.</p>
                    </div>
                </div>
                <div type="chapter">
                    <head>7. Literaturanalyse im Semantic Web</head>

                    <p>Die digitale Literaturanalyse stützt sich in der Regel auf digitalisierte
                        Texte oder Textkorpora, die von einzelnen Arbeitsgruppen oder Institutionen
                        erarbeitet wurden. Diese Texte sind aber meist nicht frei zugänglich, und
                        sie sind vor allem nicht mit externen Daten verknüpfbar. Digitalisierte,
                        d.h. maschinenlesbare Texte, auf die im Netz zugegriffen werden kann,
                        erlauben weitere Analysemöglichkeiten durch Datenvernetzung im
                            <emph>Semantic Web</emph>. Diese Vorgehensweise geht auf Sir Tim
                        Berners-Lee zurück, der 2001 vorgeschlagen hat, die Möglichkeiten des World
                        Wide Web mit semantischen Annotationen zu ergänzen, um die in allen
                        Dokument-Texten implizit enthaltenen (für menschliche Leser verständlichen)
                        Informationen explizit (d.h. für Programme auswertbar) zu machen.<note
                            type="footnote">
                            <ref type="bibliography" target="#berners_web_2001">Berners-Lee et al.
                                2001</ref>.</note>
                    </p>
                    <p>Das <emph>Semantic Web</emph> beruht darauf, dass bestimmte Informationen in
                        digitalen Dokumenten mit einer URI identifizierbar gemacht werden. Über
                        diese Identifikatoren kann in anderen Dokumenten auf sie verwiesen werden,
                        und zwar in beliebiger Abfolge. Damit entsteht wiederum ein Netz (hier
                        besser: ein Graph) von Verweisen, die ihrerseits wieder annotiert und
                        abgefragt werden können.<note type="footnote">
                            <ref type="bibliography" target="#hitzler_web_2008">Hitzler et al.
                                2008</ref>.</note> Der dafür zur Verfügung stehende Standard
                            RDF<note type="footnote"> Vgl. den RDF Primer <ref
                                target="http://www.w3.org/TR/2004/REC-rdf-primer-20040210/"
                                >http://www.w3.org/TR/2004/REC-rdf-primer-20040210/</ref>.</note>
                        ist ein nicht spezifisch für die Computerphilologie entwickeltes
                            Auszeichnungsformat,<note type="footnote">
                            <ref type="bibliography" target="#cure_database_2015">Curé / Blin
                                2015</ref>.</note> das in der Literaturanalyse aber vor allem
                        deshalb mit Erfolg eingesetzt werden kann, weil es über die Erfassung der
                        sprachlich-textuellen Merkmale hinaus die vollständige Erfassung der
                        Struktur und der Kontexte eines Texts sein Referenzprofil ermöglicht. Die
                        ebenfalls standardisierte Abfragesprache SPARQL erlaubt dann beliebige
                        Suchen nach Mustern in mit RDF strukturierten Dokumenten.</p>

                    <div type="subchapter">
                        <head>7.1 Erstellung eines vernetzten Texts</head>

                        <p>Die Zuordnung der evaluierten Textmerkmale zu textexternen Referenzgrößen
                            wurde in <ref type="intern" target="#hd5">Abschnitt 5</ref> als
                            notwendige Voraussetzung für das Verstehen eines Textes – das Erfassen
                            seiner Bedeutung<note type="footnote"> Vgl. zu dieser Problematik u.a.
                                    <ref type="bibliography" target="#jannidis_regeln_2003">Jannidis
                                    et al. 2003</ref>, hier S. 3–30 und insbesondere die Einleitung
                                von Gerhard Lauer zum Abschnitt <quote>IV. Historische Aspekte
                                    literarischer Bedeutung</quote>, wo er auf die Praxis der
                                    <quote>Bedeutungszuweisung</quote> eingeht, S. 559–565.</note> –
                            genannt. Sie realisiert sich als Operation der Verknüpfung mit jeweils
                            als zugehörig erachteten Bezugsgrößen, die der Leser vollziehen
                            muss.</p>
                        <p>Für diese kontextualisierende Zuordnung mit Hilfe von Computerprogrammen
                            bietet die Auszeichnung (literarischer) Texte im Netz die entscheidende
                            Grundlage.</p>
                        <p>Texte, die im Netz zugänglich sind, können zwar zusätzlich mit Hyperlinks
                            ausgestattet werden, die beim Lesen eine Weiterleitung zu anderen
                            Webeinträgen ermöglichen. Hyperlinks sind für Suchabfragen jedoch
                            ineffizient. Texte mit dem Standard RDF zu annotieren, ermöglicht
                            hingegen eine effiziente Analyse auch riesiger Textmengen. Milliarden
                            von Triples können innerhalb von Sekunden nach komplexen Mustern
                            abgefragt werden. RDF erlaubt auch die Verknüpfung mit externen
                            Datenbanken wie Wikipedia, Google Maps, Filmdatenbanken etc. Solche
                            externen Datenbestände können, soweit sie im RDF Format vorliegen (wie
                            dies etwa bei DBpedia der Fall ist), nicht nur aufgefunden, sondern
                            wiederum in Abfragen verwendet werden. So ist es zum Beispiel
                            umstandslos möglich, alle Regisseure und Schauspieler, die in einem Text
                            erwähnt werden, herauszufinden und zu prüfen, ob ein Film zum fiktiven
                            Zeitpunkt der Handlung in einem Text bereits öffentlich gezeigt worden
                            ist oder nicht.</p>
                        <p>Der Entwicklung von Verfahren zur (automatisierten) Erkennung und
                            Auszeichnung der entsprechenden Textstellen gilt daher gegenwärtig unser
                            vorrangiges Interesse. Ziel wäre es, diese Verfahren so weit zu
                            entwickeln, dass die Verweisstruktur eines Textes, also dessen
                            Referenzprofil, möglichst automatisch und möglichst vollständig erfasst
                            werden kann. Dies betrifft Referenzen auf Personen, Orte, Zeitangaben,
                            Ereignisse, Sachverhalte etc., aber auch Bild- oder Textreferenzen,
                            Zitate, intertextuelle Bezugnahmen, Anspielungen, Redewendungen u.v.m.
                            Letztlich geht es um die Verknüpfung des Textes mit Informationen, wie
                            sie bereits in klassischen Textkommentaren beigebracht wurden, also um
                            die Erfassung struktureller Merkmale, um Wort- und Sachverweise,
                            intertextuelle Bezüge etc., nicht aber um Abbildung des subjektiven
                            Assoziationsraums, in den jeder private Leser <hi rend="italic"
                                >seine</hi> Lektüre eines Textes notwendigerweise einbetten
                            wird.</p>
                    </div>
                    <div type="subchapter">
                        <head>7.2 Literaturanalyse im Semantic Web</head>

                        <p>Die mit RDF ausgezeichneten Dokumente können mit der Abfragesprache
                            SPARQL untersucht werden, wobei sich über die Verbindung zu anderen
                            Datenbanken durch die spezifische Strukturierung (Verknüpfbarkeit) der
                            Suchkriterien erweiterte Suchmöglichkeiten ergeben. So erlaubt
                            beispielsweise die Erfassung sämtlicher in einem Korpus genannter
                            Ortsnamen durch RDF eine Verknüpfung mit Gazeteers (wie
                                <emph>OpenStreetMap</emph>), um die geographischen Koordinaten zu
                            bestimmen und daraus Karten z.B. mit Google Maps oder Google Fusion
                            Tables zu zeichnen, über die sich die Frequenz und Distribution der in
                            den erfassten Texten auftretenden Ortsnamen relationieren lassen. Der
                            DARIAH-DE <ref target="https://de.dariah.eu/geobrowser">GeoBrowser</ref>
                            erlaubt darüber hinaus das Zeichnen von Karten, die Veränderungen in der
                            Zeit anzeigen.</p>
                        <p>Da die Texte im Netz evaluierbar sind, werden die ermittelten
                            Referenzierungen dann aber nicht nur vom Einzeltext her lesbar. Es lässt
                            sich auch in umgekehrter Richtung evaluieren, welche Texte sich auf
                            einen bestimmten Referenzpunkt (z.B. ein bestimmtes Zitat oder einen Ort
                            etc.) beziehen.<note type="footnote"> Vgl. dazu auch <ref
                                    type="bibliography" target="#barbaresi_extraction_2016"
                                    >Barbaresi 2016</ref>.</note>
                        </p>
                    </div>
                    <div type="subchapter">
                        <head>7.3 Digitale Literaturanalyse durch andere Disziplinen</head>

                        <p>Diese Methoden der Literaturanalyse könnten sich schließlich weit über
                            ästhetisch-literaturwissenschaftliche Fragestellungen hinaus als
                            nützlich erweisen. Denn die so erfassten literarischen Texte sind auf
                            diese Weise der Grundanlage des World Wide Web entsprechend für jeden
                            überall zugänglich und werden so auch für andere Disziplinen
                            evaluierbar. Dies kann neben den historischen Wissenschaften auch für
                            alle weiteren Forschungsrichtungen von Interesse sein, die sich mit
                            Fragen der menschlichen Kultur respektive mit der Entwicklungsgeschichte
                            des Menschen befassen, also auch für die Lebenswissenschaften sowie alle
                            Fachrichtungen, die Kognitionsprozesse untersuchen. Wie Menschen
                            beispielsweise Raum(-strukturen) erfahren, erfassen, beschreiben,
                            repräsentieren und kommunizieren, ist eine für alle Raumwissenschaften
                            wichtige Frage.<note type="footnote">
                                <ref type="bibliography" target="#guenzel_raumwissenschaften_2009"
                                    >Günzel 2009</ref>.</note> Sie könnte an (literarischen) Texten
                            mit großem Gewinn untersucht werden.<note type="footnote"> Entsprechend
                                multidisziplinär ausgelegt sind einschlägige Initiativen wie
                                DARIAH-Eu.</note>
                        </p>
                        <p>Obwohl in literarischen Texten eine Fülle an (nicht nur kulturellem)
                            Wissen enthalten und greifbar ist, wird Literatur in dieser Hinsicht
                            bisher nur partiell evaluiert. Durch die Indizierung literarischer Texte
                                <emph>im Semantic Web</emph> können auch andere Disziplinen deren
                            Daten systematisch für ihre Erkenntnisbemühungen nutzen.</p>
                    </div>
                </div>
                <div type="chapter">
                    <head>8. Perspektiven</head>

                    <div type="subchapter">
                        <head>8.1 Abschied vom biblischen Zeitalter</head>

                        <p>Es zeichnet sich ab, dass die hier in Betracht gezogenen Methoden
                            literarische Texte zu analysieren eher darauf ausgerichtet sind, große
                            Mengen von Texten zu bearbeiten als einzelne Werke zu analysieren. Das
                            mit den Computerprogrammen gegebene Potential, Textmengen in einem
                            Ausmaß zu untersuchen, das kein einzelner Leser bzw. Leserin je
                            überblicken könnte, ist eine attraktive Herausforderung für die heutige
                            Literaturwissenschaft. Der Positionswechsel weg von der hermeneutischen
                            Auslegung des ›einen‹ Buchs zum <quote>Distant Reading</quote> hunderter
                            von Texten, wie dies Franco Moretti experimentell pointiert hat,<note
                                type="footnote">
                                <ref type="bibliography" target="#moretti_reading_2013">Moretti
                                    2013</ref>.</note> ermöglicht neuartige Fragestellungen, die
                            keineswegs als disziplinfern oder -fremd eingestuft werden können. Im
                            Gegenteil, letztlich hat uns Morettis <bibl>
                                <title type="desc">Atlas</title>
                            </bibl> ›den‹ europäischen Roman auf neue Weise nahe gebracht.<note
                                type="footnote">
                                <ref type="bibliography" target="#moretti_atlas_1999">Moretti
                                    1999</ref>.</note>
                        </p>
                        <p>Wir hoffen, dass sich bei einer solchen Betrachtungsweise ›das System‹
                            Literatur, und das würde heißen die Funktionen und das Funktionieren
                            literarischer Texte im Gesamtgefüge kultureller Gemeinschaften, in
                            seinen Konturen deutlicher erkennen lässt. Literarische Texte sind weder
                            Unikate noch Einzelgänger. Mehrfach reproduziert erscheinen sie an
                            vielen Orten gleichzeitig. Sie treten im Gefüge literarischer
                            Traditionen und aktueller Strömungen auf und bezeugen historische
                            Ereignisse und Entwicklungen. Sie partizipieren an den Diskursen der
                            Gesellschaft und sie sind Teil ökonomischer Beziehungen, die Entstehung
                            und Rezeption ebenso wie Thema und Argumentation der Texte bestimmen.
                            Diese Art der Verankerung oder Vernetzung von Texten in größeren
                            systemischen Zusammenhängen sichtbar zu machen, kann mit den hier
                            skizzierten Methoden in einer Weise geleistet werden, die die
                            Evaluierung großer Textgruppen wie einzelner Texte ermöglicht und
                            erfordert.</p>
                    </div>
                    <div type="subchapter">
                        <head>8.2 Die Vernetzung des Texts</head>

                        <p>Gerade jene monumentalen Einzeltexte, denen in der Kulturgeschichte
                            größte Bedeutung zuerkannt wird, scheinen intensiv systemisch vernetzt;
                            dies gilt für die Bibel ebenso wie für Homer, für Dante wie für die
                            Märchen aus Tausendundeiner Nacht, für Shakespeare wie für Joyce.
                            Evaluiert man das Referenzprofil respektive den Verknüpfungsgrad eines
                            einzelnen Textes, lässt sich dessen Verhältnis zum ›unendlichen‹ Text
                            der <quote>Weltliteratur</quote> wie auch sein referentielles Verhältnis
                            zur <quote>Welt</quote> genauer bestimmen. Dies könnte nahelegen, dass
                            sich aus der Ermittlung des jeweiligen Vernetzungsgrads neue Kriterien
                            zur literarischen Wertung respektive zur Bestimmung der ästhetischen
                            Qualität von Texten erarbeiten lassen.</p>
                        <p>Vergleicht man jedoch Qualität und Intensität der Verknüpfungen, ergibt
                            sich eher eine ganze Reihe von Relationen als eine Werteskala. Sie
                            können beispielsweise im Hinblick auf die Mechanismen der Textrezeption
                            ebenfalls statistisch untersucht werden: einem hohen Grad an Verknüpfung
                            dürfte ein hohes Maß an Anschlussmöglichkeiten für viele Leser
                            entsprechen; ein geringer Grad an Verknüpfung hingegen kann große
                            Eigenständigkeit der literarischen Struktur signalisieren; sehr
                            spezielle Verknüpfungen können hermetische Tendenzen anzeigen;
                            abstrakt-allgemeine Merkmale könnten eine weiträumige Rezipierbarkeit
                            ermöglichen etc. Es sind auch bisher nicht angestellte Überlegungen, die
                            sich hier als weiterführende Forschungsfragen abzeichnen. Für deren
                            Evaluierung können schließlich auch Metadaten wie die Registrierung von
                            Abfragehäufigkeit einzelner Texte oder einzelner Verknüpfungen genutzt
                            werden, sofern man deren Erhebung ins Programm implementiert hat.</p>

                    </div>
                    <div type="subchapter">
                        <head>8.3 Alte und neue Aufgaben</head>

                        <p>Der skizzierte Ansatz digitaler Literaturanalyse durch Datenvernetzung
                            mündet in eine Art relationierende Literaturanalyse, in der die
                            Eigenschaften einzelner Texte im Verhältnis zu Textgruppen evaluiert und
                            auf die Systeme bezogen werden, in die sie produktions- wie
                            rezeptionsästhetisch eingebettet sind. Nach wie vor wird ein Schwerpunkt
                            der Analyse auf der genauen Untersuchung von Textstrukturen und deren
                            Erfassung durch literaturwissenschaftliche Kategorien liegen.</p>
                        <p>Eine der wesentlichen Ideen dieser Methode ist es, das in und mit
                            literarischen Texten kommunizierte Wissen schärfer hervortreten zu
                            lassen und systematischer als bisher zu bergen. Dies betrifft einerseits
                            spezifisch literaturwissenschaftlich relevantes Wissen, wie etwa die
                            Wanderung ästhetischer Konzepte und Ausdrucksformen, und andererseits
                            die Möglichkeit außerliterarische Sachzusammenhänge abzufragen, die in
                            Texten abgebildet oder thematisiert werden wie zum Beispiel die
                            Ermittlung von Daten zu Kaufpreisrelationen, wie sie für die
                            Wirtschaftsgeschichte von Belang sind, oder Daten zur Erforschung des
                            Klimawandels und Beschreibungen medizinisch relevanter Krankheitsbilder.
                            Die Daten der ›vernetzten‹, d.h. für automatisierte Abfragen
                            vorbereiteten Texte im World Wide Web können und sollten also auch von
                            anderen Disziplinen genutzt und damit das Potential von Literatur in
                            weiterem Umfang als bisher erfasst und wissenschaftlichen
                            Erkenntnisbemühungen verfügbar gemacht werden. </p>
                    </div>
                </div>
                <div type="chapter">
                    <head>9. Conclusio</head>

                    <p>Für die Entwicklung digital gestützter Literaturanalysen scheint es sinnvoll,
                        an bereits bewährte Methoden und Ansätze der Computerlinguistik respektive
                        der Korpuslinguistik anzuknüpfen. Wie viele andere Bereiche der
                        Computerwissenschaften wird auch die digitale Literaturwissenschaft in
                        Zukunft in hohem Maße auf Erkenntnisse und Methoden des Natural Language
                        Processing angewiesen sein.</p>
                    <p>Vorerst erscheint die Entwicklung komplexer Annotationsverfahren respektive
                        zugehöriger Abfragen als ein begehbarer Weg, um systematische und
                        nachprüfbare Literaturanalysen anhand großer Textkorpora zu ermöglichen.
                        Diese Analysen können insbesondere bei großräumig angelegten Untersuchungen
                        unter anderem dazu beitragen, basale Einschätzungen der Disziplin zum
                        Beispiel in Bezug auf Formierung und Ausbreitung bestimmter literarischer
                        Genres, Strömungen oder Gruppierungen, oder aber im Hinblick auf die
                        Untersuchung von literarischem und Wissenstransfer zu überprüfen und zu
                        differenzieren. Andererseits zeichnet sich ab, dass diese Verfahren auch im
                        Bereich von Einzeltextanalysen fruchtbar genutzt werden können, wenn es
                        darum geht, die Spezifika eines Werks vergleichend zu evaluieren.</p>
                    <p>Wenn Textkorpora im World Wide Web gespeichert werden, so fördert dies nicht
                        allein deren allgemeine ubiquitäre Zugänglichkeit. Eine Integration der
                        Texte ins <emph>Semantic Web</emph> eröffnet darüber hinaus weitere
                        Optionen: sie ermöglicht die Darstellung der Mehrdimensionalität
                        literarischer Texte durch Datenverknüpfung und fungiert damit sowohl als
                        Speichermedium wie als Medium wissenschaftlicher Erkenntnisgewinnung. Eine
                        solche Textdarstellung wird das Spektrum literaturwissenschaftlicher
                        Erkenntnismöglichkeiten zweifellos erweitern. Nicht zuletzt aber ermöglicht
                        die Verknüpfung von literarischen Texten mit dem <emph>Semantic Web</emph>
                        auch anderen an der Entwicklung des Menschen und den von ihm geschaffenen
                        Systemen interessierten Disziplinen Zugang zu dem in literarischen Texten
                        enthaltenen Wissen, das von diesen bisher kaum evaluiert werden konnte.<note
                            type="footnote"> Dieser Beitrag entstand im Zusammenhang eines
                            Forschungsprojekts zur digitalen Literaturanalyse, das ich gegenwärtig
                            mit einer Gruppe von Studierenden und in Verbindung mit Andrew U. Frank
                            (TU Wien) am ICLTT der ÖAW durchführe.</note>
                    </p>
                </div>
                <div type="bibliography">
                    <head>Bibliographische Angaben</head>
                    <listBibl>
                        <bibl xml:id="aciman_twitterature_2009">Alexander Aciman / Emmet Rensin:
                            Twitterature: The World’s Greatest Books Retold Through Twitter. New
                            York 2009. <ptr type="gbv" cRef="609752227"/></bibl>

                        <bibl xml:id="anderson_communities_1983">Benedict Anderson: Imagined
                            Communities: Reflections on the Origin and Spread of Nationalism. London
                            1983. <ptr type="gbv" cRef="040398609"/></bibl>

                        <bibl xml:id="baillot_reconstruire_2015">Anne Baillot: Reconstruire ce qui
                            manque ou le déconstruire ? Approches numériques des sources
                            historiques. Entre sources données et résaux (Porgramme MORE-HIST). Mar
                            2015, Toulouse, France 2015. [<ref
                                target="https://halshs.archives-ouvertes.fr/halshs-01133507"
                                >online</ref>] </bibl>

                        <bibl xml:id="barbaresi_extraction_2016">Adrien Barbaresi / Hanno Biber:
                            Extraction and Visualization of Toponyms in Diachronic Text Corpora
                            Digital Humanities Kraków, 11–16 July 2016, <ref
                                target="http://dh2016.adho.org/abstracts/317"
                                >http://dh2016.adho.org/abstracts/317</ref> [<ref
                                target="https://halshs.archives-ouvertes.fr/halshs-01133507"
                                >online</ref>] </bibl>

                        <bibl xml:id="bense_theorie_1962">Max Bense: Theorie der Texte. Eine
                            Einführung in neuere Auffassungen und Methoden. Köln 1962. <ptr
                                type="gbv" cRef="173504620"/></bibl>

                        <bibl xml:id="bense_einfuehrung_1969">Max Bense: Einführung in die
                            informationstheoretische Ästhetik. Grundlegung und Anwendung in der
                            Texttheorie. Reinbek 1969. <ptr type="gbv" cRef="267651384"/></bibl>

                        <bibl xml:id="berners_web_1999">Tim Berners-Lee / Mark Fischetti: Weaving
                            the Web: The Original Design and Ultimate Destiny of the World Wide Web
                            by its inventor. San Francisco 1999. <ptr type="gbv" cRef="079012450"
                            /></bibl>

                        <bibl xml:id="berners_web_2001">Tim Berners-Lee / James Hendler / Ora
                            Lassila: The semantic web. Scientific America 2001. [<ref
                                target="http://www.scientificamerican.com/article/the-semantic-web/"
                                >online</ref>]</bibl>

                        <bibl xml:id="coetzee_fiction_1969">John Maxwell Coetzee. The English
                            Fiction of Samuel Beckett. An Essay in Stylistic Analysis. Austin 1969.
                                <ptr type="gbv" cRef="527776467"/></bibl>

                        <bibl xml:id="cure_database_2015">Olivier Curé / Guillaume Blin: RDF
                            Database Systems: Triples Storage and SPARQL Query Processing. Amsterdam
                            2015. <ptr type="gbv" cRef="796491577"/></bibl>

                        <bibl xml:id="derrida_schrift_1976">Jacques Derrida: Die Schrift und die
                            Differenz. [L’écriture et la différence. Paris 1967]. Frankfurt/Main
                            1976. <ptr type="gbv" cRef="02142053X"/></bibl>

                        <bibl xml:id="derrida_grammatologie_1983">Jacques Derrida: Grammatologie [De
                            la grammatologie. Paris 1967]. Frankfurt/Main 1983. <ptr type="gbv"
                                cRef="024973661"/></bibl>

                        <bibl xml:id="eliot_essays_1932">Thomas Sterns Eliot: Selected Essays,
                            1917–1932. London, New York 1932. <ptr type="gbv" cRef="022474498"
                            /></bibl>

                        <bibl xml:id="engelmann_randgaenge_1988">Peter Engelmann: Jacques Derridas
                            Randgänge der Philosophie. Wien 1988. <ptr type="gbv" cRef="026759365"
                            /></bibl>

                        <bibl xml:id="fucks_analyse_1955">Wilhelm Fucks: Mathematische Analyse von
                            Sprachelementen, Sprachstil und Sprachen. [Veröffentlichungen der
                            Arbeitsgemeinschaft für Forschung des Landes Nordrhein-Westfalen, H.
                            34a]. Opladen 1955. <ptr type="gbv" cRef="018289886"/></bibl>

                        <bibl xml:id="gadamer_wahrheit_1960">Hans-Georg Gadamer: Wahrheit und
                            Methode. Grundzüge einer philosophischen Hermeneutik. Tübingen 1960.
                                <ptr type="gbv" cRef="016338189"/></bibl>

                        <bibl xml:id="giacomuzzi_literaturmagazine_2012">Renate Giacomuzzi:
                            Deutschsprachige Literaturmagazine im Internet. Ein Handbuch. Innsbruck
                            2012. <ptr type="gbv" cRef="672372193"/></bibl>

                        <bibl xml:id="gifford_notes_1989">Don Gifford / Robert J. Seidman: Ulysses
                            Annotated. Notes for James Joyce’s Ulysses. Los Angeles, London 1989.
                                <ptr type="gbv" cRef="190991046"/></bibl>

                        <bibl xml:id="guenzel_raumwissenschaften_2009">Stephan Günzel:
                            Raumwissenschaften. Frankfurt/Main 2009. <ptr type="gbv"
                                cRef="55062189X"/></bibl>

                        <bibl xml:id="herring_weblogs_2005">Susan C. Herring / Lois Ann Scheidt /
                            Elijah Wright / Sabrina Bonus: Weblogs as a bridging genre. In:
                            Information, Technology &amp; People 18 (2005), H. 2, S. 142–171. [<ref
                                target="http://dx.doi.org/10.1108/09593840510601513"
                            >online</ref>]</bibl>

                        <bibl xml:id="hilbert_denken_1970">David Hilbert: Axiomatisches Denken.
                            Mathematische Annalen Bd. 78, S. 405–415 (1918). Wieder abgedruckt in:
                            David Hilbert: Gesammelte Abhandlungen. Band III: Analysis; Grundlagen
                            der Mathematik; Physik; Verschiedenes; Lebensgeschichte. Heidelberg
                            1970, S. 146–155. <ptr type="gbv" cRef="125584326"/></bibl>

                        <bibl xml:id="hitzler_web_2008">Pascal Hitzler / Markus Krötzsch / Sebastian
                            Rudolph / York Sure: Semantic Web. Grundlagen. Berlin 2008. <ptr
                                type="gbv" cRef="513711368"/></bibl>

                        <bibl xml:id="jannidis_regeln_2003">Fotis Jannidis / Gerhard Lauer / Matías
                            Martínez / Simone Winko: Regeln der Bedeutung. Zur Theorie der Bedeutung
                            literarischer Texte. Berlin 2003. <ptr type="gbv" cRef="362203059"
                            /></bibl>

                        <bibl xml:id="kenny_computation_1982">Anthony Kenny: The Computation of
                            Style. Oxford, New York 1982. <ptr type="gbv" cRef="014317214"/></bibl>

                        <bibl xml:id="ivanovic_viennavigator_2015">Christine Ivanovic / Andrew U.
                            Frank: Viennavigator: Digitale Formalisierung literarischer Topographien
                            am Beispiel des Gesamtwerks von Ilse Aichinger. In: Norbert Bachleitner
                            / Christine Ivanovic (Hg.): Nach Wien! Sehnsucht, Distanzierung, Suche.
                            Literarische Darstellungen Wiens aus komparatistischer Perspektive.
                            Frankfurt/Main u.a. 2015, S. 289–322. <ptr type="gbv" cRef="837973260"
                            /></bibl>

                        <bibl xml:id="lauer_vermessung_2013">Gerhard Lauer: Die Vermessung der
                            Kultur. Geisteswissenschaften als digital Humanities. In: Big Data. Das
                            neue Versprechen der Allwissenheit. Hg. von Heinrich Geiselberger.
                            Berlin 2013, S. 99–116. <ptr type="gbv" cRef="778140563"/></bibl>

                        <bibl xml:id="lauer_weltbibliothek_2014">Gerhard Lauer: Die Weltbibliothek
                            und ihre Korpora. In: Zeitschrift für Bibliothekswesen und Bibliographie
                            61 (2014) H. 4–5, S. 251–253. [<ref
                                target="http://dx.doi.org/10.3196/18642950146145149"
                            >online</ref>]</bibl>

                        <bibl xml:id="lehmann_kommentar_2003">Jürgen Lehmann / Christine Ivanovic:
                            Kommentar zu Paul Celans »Die Niemandsrose«. Heidelberg 2003. <ptr
                                type="gbv" cRef="365250287"/></bibl>

                        <bibl xml:id="moretti_atlas_1999">Franco Moretti: Atlas of the European
                            Novel 1800–1900. New York 1999. <ptr type="gbv" cRef="25446467X"
                            /></bibl>
                        <bibl xml:id="moretti_graphs_2005">Franco Moretti: Graphs, Maps, Trees:
                            Abstract Models for a Literary History. New York 2005. <ptr type="gbv"
                                cRef="47948466X"/></bibl>

                        <bibl xml:id="moretti_reading_2013">Franco Moretti: Distant Reading. New
                            York 2013. <ptr type="gbv" cRef="746442440"/></bibl>

                        <bibl xml:id="musil_ausgabe_2009">Robert Musil: Klagenfurter Ausgabe.
                            Kommentierte digitale Edition sämtlicher Werke, Briefe und
                            nachgelassener Schriften. Mit Transkriptionen und Faksimiles aller
                            Handschriften. Klagenfurt 2009. <ptr type="gbv" cRef="584224265"
                            /></bibl>

                        <bibl xml:id="ramsay_machines_2011">Stephen Ramsay: Reading Machines. Toward
                            an Algorithmic Criticism. University of Illinois Press 2011. <ptr
                                type="gbv" cRef="654966346"/></bibl>

                        <bibl xml:id="sahle_editionsformen_2013">Patrick Sahle: Digitale
                            Editionsformen. Teil 3: Textbegriffe und Recodierung. Zum Umgang mit der
                            Überlieferung unter den Bedingungen des Medienwandels. Schriften des
                            Instituts für Dokumentologie und Editorik. Norderstedt 2013. [<ref
                                target="http://nbn-resolving.de/urn:nbn:de:hbz:38-50130"
                                >online</ref>]</bibl>

                        <bibl xml:id="salgaro_ausgabe_2014">Robert Musil in der Klagenfurter
                            Ausgabe: Bedingungen und Möglichkeiten einer digitalen Edition. Hg. von
                            Massimo Salgaro. München 2014. <ptr type="gbv" cRef="774851848"/></bibl>

                        <bibl xml:id="suter_hyperfiction_2000">Beat Suter: Hyperfiktion und
                            interaktive Narration: Im frühen Entwicklungsstadium zu einem Genre.
                            Zürich 2000. <ptr type="gbv" cRef="315118776"/></bibl>

                        <bibl xml:id="suter_hyperfiction_2001">Beat Suter / Michael Böhler:
                            Hyperfiction. Hyperliterarisches Lesebuch: Internet und Literatur.
                            Frankfurt/Main 2001. <ptr type="gbv" cRef="300078641"/></bibl>
                    </listBibl>
             
                <div type="bibliography2">
                    <head>Weiterführende Literatur</head>
                    <listBibl>
                        <bibl xml:id="bird_language_2009">Steven Bird / Edward Loper / Ewan Klein:
                            Natural Language Processing with Python. Sebastopol 2009. <ptr
                                type="gbv" cRef="593717139"/></bibl>
                        <bibl xml:id="clark_handbook_2010">Alexander Clark / Chris Fox / Shalom
                            Lappin: The Handbook of Computational Linguistics and Natural Language
                            Processing. Chichester 2010. <ptr type="gbv" cRef="617742286"/></bibl>

                        <bibl xml:id="coombs_systems_1987">James H. Coombs / Allen H. Renear /
                            Steven J. DeRose: Markup systems and the future of scholarly text
                            processing. In: Communications of the ACM 30 (1987), H. 11, S. 933–947.
                                [<ref target="http://dx.doi.org/10.1145/32206.32209"
                            >online</ref>]</bibl>

                        <bibl xml:id="hoover_end_2007">David Hoover: The end of the irrelevant text:
                            Electronic texts, linguistics, and literary theory. In: DHQ 2 (2007).
                                [<ref
                                target="http://www.digitalhumanities.org/dhq/vol/1/2/000012/000012.html"
                                >online</ref>]</bibl>

                        <bibl xml:id="jannidis_romane_2005">Fotis Jannidis / Gerhard Lauer / Andrea
                            Rapp: Alte Romane und neue Bibliotheken. Zum Projekt eines digitalen
                            historischen Referenzkorpus des Deutschen. In: Die innovative
                            Bibliothek. Hg. von Erland Kolding Nielsen / Klaus Gerhard Saur / Klaus
                            Ceynowa. München 2005, S. 139–150. <ptr type="gbv" cRef="485794527"
                            /></bibl>

                        <bibl xml:id="jannidis_romane_2007">Fotis Jannidis / Gerhard Lauer / Andrea
                            Rapp: Hohe Romane und blaue Bibliotheken. Zum Forschungsprogramm einer
                            computergestützten Buch- und Narratologiegeschichte des Romans in
                            Deutschland (1500–1900). In: Literatur und Literaturwissenschaft auf dem
                            Weg zu den neuen Medien. Eine Standortbestimmung. Zürich 2007, S. 29–42.
                                <ptr type="gbv" cRef="569448735"/></bibl>

                        <bibl xml:id="jannidis_methoden_2010">Fotis Jannidis: Methoden der
                            computergestützten Textanalyse. In: Methoden der literature- und
                            kulturwissenschaftlichen Textanalyse. Hg. von Vera Nünning. Stuttgart
                            2010, S. 109–132. <ptr type="gbv" cRef="600206319"/></bibl>

                        <bibl xml:id="jannidis_delta_2014">Fotis Jannidis / Gerhard Lauer: Burrows’s
                            delta and its use in german literary history. <ptr type="gbv"
                                cRef="786496665"/> In: Distant Readings. Topologies of German
                            Culture in the Long Nineteenth Century. New York 2014, S. 29–54. <ptr
                                type="gbv" cRef="774719931"/></bibl>

                        <bibl xml:id="lauer_introduction_2015">Gerhard Lauer: Introduction:
                            Empirical Methods in Literary Studies. In: Journal of Literary Theory 9
                            (2015), H.1, S. 1–3. <ptr type="gbv" cRef="552258482"/></bibl>

                        <bibl xml:id="manning_foundations_2001">Christopher D. Manning / Hinrich
                            Schütze: Foundations of Statistical Natural Language Processing.
                            Cambridge, MA 2001. <ptr type="gbv" cRef="327605863"/></bibl>

                        <bibl xml:id="rommel_studies_2004">Thomas Rommel: Literary studies. In:
                            Companion to Digital Humanities. Hg. von R. Siemens / J. Unsworth / S.
                            Schreibman. Oxford 2004. <ptr type="gbv" cRef="379865556"/></bibl>

                        <bibl xml:id="schmidt_inadequacy_2010">Desmond Schmidt: The inadequacy of
                            embedded markup for cultural heritage texts. In: Literary and Linguistic
                            Computing 25 (2010), S. 337–356. <ptr type="gbv" cRef="338767851"
                            /></bibl>

                        <bibl xml:id="looy_media_2003">Jan Van Looy / Jan Baetens: Close Reading New
                            Media. Analyzing Electronic Literature. Leuven 2003. <ptr type="gbv"
                                cRef="381615472"/></bibl>
                    </listBibl>
                </div>
                </div>
            </div>
        </body>
    </text>
</TEI>