In einem ersten Schritt werden Familien gebildet. Diese Familien fassen alle Artikel einer bestimmten Ordnungsstruktur zusammen (zum Beispiel Jahrgänge oder Themenfelder). In einem weiteren Schritt werden Unterkategorien festgelegt. Hierbei werden die Artikel mit Kodes manuell und/oder mit einer komplexen Stichwortsuche maschinell beschlagwortet. Anschließend können all jene Artikel, die zu einer bestimmten Unterkategorie gehören, mithilfe einer Netzwerkanalyse auf einem Blick erfasst werden. Durch das Query Tool ist es schließlich möglich, komplexere Analysen durchzuführen. Dabei kann nach mehr als einem Kode gefragt werden, etwa nach bestimmten z. B. logisch definierbaren Kombinationen von Kodes.
Vom Korpus zu validen Analyseergebnissen – eine 7-Schritte-Methode
Schritt 1: Frequenzanalyse
Ein erster wichtiger Schritt ist die Herstellung eines sinnvollen Zugangs zum Zeitungskorpus, womit eine Basis für weitere Analyseschritte geschaffen und eine basale Strukturierung des Textdatenbestandes vorgenommen wird.244 Die Frequenzanalyse bietet hierbei einen idealen Einstieg und gibt den Auftakt zur computergestützten Analyse. Frequenzanalysen zählen relative und absolute Häufigkeiten von Zeitungsartikeln bzw. Suchbegriffen und geben dadurch einen Aufschluss über die Anzahl von Texten im Zeitverlauf bzw. über die Verbreitung von bestimmten sprachlichen Mustern.245
Grafik 2 visualisiert die absoluten Häufigkeiten von Zeitungsartikeln des Subkorpus Migration und Südtirol. Hierbei handelt es sich um jenes Korpus, der aus dem Gesamtbestand der digitalisierten Tageszeitung Dolomiten und Alto Adige mittels komplexer Begriffssuche extrahiert wurde.
Grafik 2: Frequenzanalyse aller Zeitungsartikel des Korpus Migration und Südtirol
Der Frequenzgraph bietet erste Einstiegspunkte für das weitere genaue Lesen. Der Graph wirft Fragen auf, die eine weitere genauere Untersuchung einzelner Zeitabschnitte unabdingbar machen. Diese Fragen können wie folgt lauten: Warum wurde 1991/1992 so häufig über Migration berichtet, obwohl zu dieser Zeit nicht mehr als 5.099246 Menschen mit ausländischem Pass in Südtirol lebten? Was ist der Grund für quantitative Unterschiede in der Berichterstattung beider Tageszeitungen (zum Beispiel 2002, 2006 oder 2009) und wann wird besonders selten über Migration gesprochen?
Um Rückschlüsse auf die Verwendung von bestimmten Stichwörtern oder Mehrworteinheiten im Korpus zu erhalten, bietet sich ebenfalls die Durchführung einer Frequenzanalyse an. Ein Beispiel für eine solche Frequenzanalyse ist in Grafik 3 zu finden. Die Grafik zeigt, wann bestimmte Bezeichnungen für Migrant*innen in der deutschsprachigen Tageszeitung besonders häufig auftreten oder wie sich die Verwendung der Begriffe im Laufe der Zeit verändert hat. Die in der Legende angegeben Begriffe umfassen dabei alle Benennungsmöglichkeiten (z. B. Flüchtling*, Aslylwerber*, Geflüchtete* usw.). Treten zu einem Zeitabschnitt Häufungen auf (zum Beispiel 1999 der Begriff Flüchtlinge oder der Anstieg des Begriffs Ausländer und Einwanderer 2007 und 2008) oder zeigen sich deutliche Unterschiede zwischen beiden Tageszeitungen, bietet sich eine genauere Betrachtung durch manuelle Analysen an.
Grafik 3: Frequenzanalyse der Begriffe Einwanderer, Ausländer, Migrant, Saisonarbeiter, Flüchtlinge
Schritt 2: Inhaltliche Auswertung
Nachdem Frequenzanalysen erste Einstiegspunkte und wichtige Hinweise zu signifikanten Diskursen offengelegt haben, kommt es zu ersten inhaltlichen Analysen. Ziel dieser inhaltlichen Erschließung ist die Generierung essentieller Diskurse bzw. Themen, die für die weiteren Analysen von Bedeutung sind. Diese Themen können entweder durch genaues Lesen oder – falls es das gewählte Analyseprogramm zulässt – durch computerbasierte Methoden wie Kookkurrenzanalysen bzw. Topic Modelle erschlossen werden. Im Falle der manuellen Analyse werden die Überschriften der Artikel überflogen und dadurch wesentliche Themen und Entwicklungen festgehalten. Dasselbe Ziel wird mit computerbasierten Methoden angestrebt. Kookkurrenzanalysen können nicht mehr nur einfache Wortfrequenzen aufzeigen, sondern auch die Häufigkeit des gemeinsamen Auftretens mehrerer Worte.247 Mit Topic Modellen können Themen und Trends innerhalb eines Diskurses automatisch identifiziert bzw. auch gezielt ausgeschlossen werden.248 Sowohl Kookkurrenzanalysen als auch Topic Modelle – die für diese Arbeit aus technischen Gründen nicht durchgeführt werden konnten – bedürfen jedoch ebenfalls einer steten Gegenprüfung durch genaues Lesen der Texte.
Eine gezielte Auseinandersetzung mit dem Korpus ist wesentlich für diesen Analyseschritt, denn sie ermöglicht es Forscher*innen, ein Gefühl für das eigene Korpus zu erhalten und Nähe aufzubauen. Das Korpus wirkt besser einschätzbar und den eigenen Analysen wird mehr Vertrauen geschenkt.
Schritt 3: Erstellen von Subkorpora
Jene Informationen, die durch das Lesen von Texten bzw. mithilfe von Kollokationsanalysen/Topic Modellen gewonnen werden, können in einem dritten Schritt für erneute Stichwortsuchen herangezogen werden. Diese Stichwortsuchen dienen dem Erstellen von Subkorpora, die auf ein spezifisches Thema zugeschnitten sind. Das heißt, dem Gesamtkorpus werden kleinere thematische Einheiten entnommen, die abgetrennt vom restlichen Korpus weiteren Analysen zur Verfügung stehen. Möglich sind beispielsweise Eingrenzungen zu Themen wie Integration, Moscheebau oder Flucht etc. Hierfür werden zunächst alle Textstellen autokodiert, die die gesuchten Stichworte enthalten. Im Konkreten heißt dies, dass alle Artikel, die beispielsweise die Begriffe Moschee, Gebetshaus, Minarett enthalten, mit einer auto-coding Funktion beschlagwortet und unter dem Überbegriff Moscheebau zusammengefasst werden. Anschließend können die kodierten Artikel problemlos wiedergefunden werden. Diese so entstandenen Subkorpora bilden nun die Basis für die qualitative Auswertung der Texte.
Schritt 4: Qualitative Auswertung
Das Fundament für die qualitative Auswertung wird durch die Annotation des Textmaterials gelegt. Dabei handelt es sich um einen Analyseschritt, der durch genaues Lesen und durch den Interpreten, die Interpretin zu erbringen ist. Es gibt verschiedene methodische Zugänge, um Zeitungsartikel diskursanalytisch zu erfassen. Eine dieser Möglichkeiten bildet die vergleichende diskurshistorische Argumentationsanalyse, die in dieser Arbeit zur Anwendung gekommen ist. Je nach Themenschwerpunkt werden dabei mehrere Hunderte bis mehrere Tausende Artikel nach Argumentationen durchsucht und im ATLAS.ti Programm manuell annotiert, sprich relevante Textstellen werden mit Kodes versehen. Auch was Argumentationsanalysen anbelangt, gibt es jedoch bereits Ansätze, diese zu automatisieren. Erste Versuche sind zum Beispiel bei Noah Bubenhofer249 zu finden.