Wie die Wiener Schule verstand auch Wengeler Argumentationen als konstitutives Element von Diskursen.162 Aber es gab auch Unterschiede zwischen den beiden Schulen. Während Vertreter*innen der diskurshistorischen Analyse Argumentationsstrategien dafür nutzten, um plausible bzw. trugschlüssige Aussagen aufzudecken und diese zu kritisieren,163 standen ideologie- und machtkritische Überlegungen bei der Historischen Diskurssemantik im Hintergrund. Dies bedeutete natürlich keineswegs, dass nicht auch die Düsseldorfer Schule ihre Untersuchungen kritisch reflektierte und auf gesellschaftliche Entwicklungen und Veränderungen aufmerksam machte.164 Insbesondere Wengeler hatte den kritischen Anspruch, Veränderungen von „Wirklichkeitssichten“ aufzuzeigen und den Einfluss auf das kollektive Gedächtnis der Bevölkerung offen zu legen.165
1.4 Diskurs und digitale Korpora
Die digitale Revolution hat den Umgang mit Texten für Wissenschaftler*innen maßgeblich verändert; Immer mehr Texte werden in ein digitales Format gebracht,166 womit Forscher*innen immer größere Mengen zur Auswertung zur Verfügung stehen. Dieses digitale Format ermöglicht nicht nur einen vereinfachten Zugang zum Text, die schiere Größe an Daten verlangt zudem einen Rückgriff auf Methoden, die automatisierte bzw. semi-automatisierte Strukturierungen von Texten vornehmen können.167 Denn für Forschende ist es nicht möglich, die immer größer werdenden Textbestände allein zu bewältigen.168 Diese Grenze ist nicht erst bei Millionen von Zeitungsartikeln anzusetzen, es reichen bereits einige Zehntausende.
Die wachsenden Datenbestände bedürfen also zunehmend des Rückgriffs auf Methoden der digitalen Geisteswissenschaft. Die alleinige Anwendung von digitalen Analysen steht jedoch zunehmend unter Kritik, weil sie nicht in der Lage sind, linguistische Muster im Kontext zu verorten. Umgekehrt wird aber auch die auszugsweise Analyse von Texten ohne Miteinbezug des Gesamtkorpus hinterfragt. So betonen einzelne Wissenschaftler*innen169, dass für eine repräsentative Diskursanalyse eben auch ein vollständiges Korpus analysiert werden müsse. Kritisiert wird beispielsweise die auszugsweise Auswahl von Texten, wodurch Zweifel bezüglich der Repräsentativität der Studie aufkommen würden. Auch könne die Analyse von einer kleinen Anzahl an Texten oder Textfragmenten keine Aufschlüsse über Entwicklungen über Jahre hinweg leisten.170 Immer häufiger gibt es deshalb Ansätze, Diskursanalysen in digitalen Textkorpora durchzuführen. Zu verweisen sei in diesem Fall auf die Studie von Costas Gabrielatos und Paul Baker171, die die diskursive Konstruktion von Flüchtlingen und Asylsuchenden mithilfe von Konkordanz- und Schlüsselwortanalyen untersuchten und dafür ein 140 Millionen Wörter umfassendes Korpus von britischen Presseartikeln zwischen 1996 und 2005 heranzogen. Auf die Arbeit und Methodik von Gabrielatos und Bakers aufbauend, analysierte des Weiteren Alyona Boeva172 die Migrations- und Flüchtlingsberichterstattung britischer und amerikanischer Zeitungen im September 2015. Ebenfalls mit (semi-)automatischen Identifikationen und Analysen von Argumentationen haben sich im Rahmen der Förderlinie eHumanities des BMBF drei interdisziplinäre Projekte beschäftig: e-Identity, ePol und VisArgue.173
Zur Problematisierung qualitativer Forschung in der digitalen Geisteswissenschaft
Die Anwendung von Methoden aus dem Repertoire der digitalen Geisteswissenschaften ist seit der digitalen Revolution stark angestiegen. Die Kombination von Diskursanalysen und Text Mining Methoden stellt aber nach wie vor ein neues Forschungsfeld dar.
Bereits im Jahr 2000 argumentierte der italienische Literaturwissenschaftler Franco Moretti,174 es wäre unmöglich alle Bücher innerhalb eines Interessengebiets zu lesen und führte die Methode des Distant Reading zur Analyse großer Datenmengen ein. Morettis Distant Reading galt – wie auch Matthew Jockers’175 (2013) macroanalysis – als Antwort auf den Umgang mit riesigen Datenmengen. Es handelt sich hierbei um Methoden, die es ermöglichten, einen Zugang zu immensen Datenbeständen zu erhalten, ohne jeden Text einzeln lesen zu müssen. Beide Begriffe, Distant Reading als auch macroanalysis, wurden jedoch in starker Abgrenzung zu zum exakten Lesen gebraucht. Jockers hob hervor: „The sheer quantity of available data makes the traditional practice of close reading untenable as an exhaustive or definitive method of evidence gathering”176. In der aktuellen Debatte werden hingegen immer stärker die Grenzen der quantitativen Big Data Analyse bzw. der Makroanalyse hervorgehoben; Forschungsfragen könnten nur bis zu einer bestimmten Grenze beantwortet und Hypothesen nur bis zu einem gewissen Punkt überprüft werden.177 Das exakte Lesen bzw. die akribische Detailanalyse durch Forschende sei deshalb nach wie vor die Methode, um in einem Forschungsprojekt zu validen Forschungsergebnissen zu kommen.178
Zwischen Mikro- und Makroanalyse
Es steht außer Frage, dass computergestützte Analyseverfahren essentiell für die Auswertung von großen Datenmengen sind und zu einem erheblichen Erkenntnisgewinn historischer, politischer oder sozialwissenschaftlicher Analysen beitragen. Sie dienen der Strukturierung von ursprünglich unstrukturierten Textdaten und schaffen einen Zugang zu Datenmaterial, das ohne computergestützte Auswertung nicht hätte erschlossen werden können.179
Trotzdem sind der computerbasierten Auswertung eindeutig Grenzen gesetzt, wie Jeffrey Drouin in seinem Artikel „ Close- and Distant-Reading Modernism: Network Analysis, Text Mining, and Teaching the Little Review” treffend zum Ausdruck brachte: „[…] the main weakness of big data methodologies is their inability to read the works that their algorithms quantify, to see what they actually say or how they position themselves in context”