Das Adäquanzproblem:
Die DH sind auf H ausgerichtet und liefern passende Methoden und Verfahren. Sie digitalisieren im Grunde die Arbeitsweisen der Geisteswissenschaften, indem sie auf Grundlage ihrer theoretischen Annahmen, in Modellierung ihrer Domänen und Formalisierung ihrer Praktiken für entsprechende digitale Daten, Bearbeitungsroutinen und Auswertungsalgorithmen sorgen. Oder nicht? Auf der Seite der Geisteswissenschaften wird manchmal das Ausbleiben einfach einsetzbarer Werkzeuge beklagt, die sich unmittelbar an die gelernten Praktiken anschließen. Ihre Vertreter fordern, dass von den DH Lösungen entwickelt würden, die eben nicht den bisherigen Methoden entsprechen, sondern zu einem Umdenken, einer neuen Betrachtungsweise und einem ‚fremden‘ Vorgehen zwingen. Systematisch scheint es eine Tendenz der DH zu geben, positivistischen, quantifizierenden, mathematisch berechenbaren Ansätzen einen starken Vorzug zu geben und keine Unterstützung für die weniger scharfen Prozesse der verstehenden Deutung (Hermeneutik) zu bieten. Damit gehen der Verdacht und manchmal der Vorwurf einher, bei DH handele es sich in Wirklichkeit um einen Angriff auf die Geisteswissenschaften, mit dem diese einer fachfremden Technisierung und einem empiristisch-naturwissenschaftlichen Forschungsdesign unterworfen werden sollten.14
Dieser Eindruck ist nicht zurückzuweisen, weil er auf grundlegende Bedingungen digitaler Kultur verweist, die durchaus bestehen. Mit digitalen Werkzeugen wird das leichter bearbeitbar, was sich in klaren Beschreibungen explizieren und in Daten übersetzen lässt. Das Werkzeugarsenal hat Präferenzen für bestimmte Rohstoffe und Verfahren, während die Bearbeitung anderer schwierig bleibt und damit zunächst zurückgestellt wird. ‚Big data‘ versus ‚close reading‘, Datenmodelle versus Wissen, Algorithmen versus Verstehen: Während immer mehr Informationen digital aufbereitet werden, immer besser zugänglich sind, immer leichter genutzt werden können und mit immer leistungsfähigeren Verfahren ausgewertet werden, scheinen die Kernprozesse der Geisteswissenschaften, durch wissensbasierte und vielfältige Kontexte berücksichtigende Interpretation Sinn zu erzeugen, in den Hintergrund zu treten.
Über die Zielstellungen und die Strategien zur Weiterentwicklung der Geisteswissenschaften mag man streiten. Ein gewisser Wandel der Welt, in der wir leben, ist aber zu konstatieren und aufzunehmen. Digitalisierung betrifft nicht nur ‚die geisteswissenschaftliche Methode‘ im engeren Sinne, sondern umfasst – wie oben bereits beschrieben – alle Bereiche wissenschaftlichen Arbeitens. Dies reicht von den Ausgangsdaten (früher: die Überlieferung, jetzt: deren digitale Repräsentation) über die Systeme der Bereitstellung und Zugänglichkeit, über die eigenen Arbeitsumgebungen, über Analyseverfahren bis hin zur Ergebnisproduktion und ‚Dissemination‘ (Einspeisung in den wissenschaftlichen Diskurs). Es geht nicht um eine einfache Erweiterung unseres Werkzeugkastens, sondern um eine umfassende Veränderung unserer gesamten Informationsumwelt. Was wir derzeit erleben, ist eine auch epistemologische Transformation, die allerdings in ihren Auswirkungen noch nicht leicht präzise zu fassen ist. Was wir brauchen, ist ein Bewusstsein für die Veränderungen und für die inhärenten Schieflagen, die neue Technologien mit sich bringen. Gerade die Geisteswissenschaften verfügen über die Kompetenz zur kritischen Beobachtung und Begleitung von informatischen Ansätzen, die niemals objektiv sind, sondern immer schon subjektiv im Sinne von theoriegeladen. In die Digitalisierung (Beschreibung & Analyse) unserer Informationsumwelt gehen immer schon Haltungen und Sichtweisen ein, die partikular sind und in Konkurrenz zu anderen stehen.
Dass die Geisteswissenschaften sich mit der Veränderung der Welt auch selbst verändern, ist unausweichlich. Sie müssen dabei aber die ganze Breite der digitalen Transformation der Forschung und deren epistemologischen Schieflagen und Eigendynamiken im Blick behalten, um sicher zu stellen, dass sie sich mit den für sie geeigneten technischen Strukturen und Werkzeugen ausstatten.
Das Reformproblem:
Theoretisch ist eine Haltung denkbar, die eine scharfe Trennung zwischen DH und H so definiert, dass sich in den Geisteswissenschaften einfach nichts ändern müsste, weil alles Neue und Andere sich in den DH abspielen könnte. Eine solche Haltung extremen Solipsismus‘ würde aber ausschließen, dass sich Wissenschaften durch die Veränderung ihrer Informationsumgebung oder durch das Aufkommen neuer technischer Möglichkeiten selbst auch verändern würden. Und sie würde einen dialogischen Entwicklungsprozess erschweren. Im Prinzip sind die zu beobachtenden Spezialisierungs- und Abspaltungsprozesse ein ganz natürlicher Vorgang. Das Prinzip der Wissenschaft ist das Prinzip der Differenzierung. DH ist hier kein ungewöhnliches Phänomen, sondern etwas, was sich in allen Wissenschaftsbereichen beobachten lässt. Fachinformatiken gibt es überall: Wirtschaftsinformatik, Bioinformatik, Geoinformatik, medizinische Informatik, Chemieinformatik, Medieninformatik etc. Zu fragen und zu unterscheiden ist vielleicht nur, wie das Verhältnis von Spezialdisziplin und allgemeiner Fachforschung ausgestaltet wird und welche Rückwirkungen die Spezialisierungsbewegungen auf die etablierten Fächer haben. Hier mag mit den Geisteswissenschaften ein besonderer Fall vorliegen, gerade weil die neuen Ansätze sich so fundamental von den bisherigen Praktiken zu unterscheiden scheinen.
Wenn man aber akzeptiert, dass DH auch eine prinzipielle epistemologische Herausforderung darstellt und zu einer substanziellen Erweiterung des Methodenarsenals sowie des Werkzeugkastens der Geisteswissenschaften führen kann, dann muss die Frage beantwortet werden, wie diese Entwicklungen in den einzelnen Fächern aufgenommen und in sie integriert werden können. Hier gibt es wiederum mindestens drei Probleme zu beachten, wobei ich für keines von ihnen einen echten Lösungsvorschlag anbieten kann.
Die erste Herausforderung liegt in der inhärenten Perpetuierung etablierter Methoden und Praktiken. Studenten und Doktoranden lernen von der vorhergehenden Generation und übernehmen deren Methoden. Auf der Ebene der Professuren, auf der die Curricula gestaltet werden, besteht eigentlich kaum Innovationsdruck. Auf der Ebene der Promovierenden und Habilitierenden, auf der eigentlich noch die größte Innovationsfreiheit bestehen sollte, besteht oft die Vorgabe, auf den etablierten Pfaden zügig zum Ziel zu kommen und sich nicht auf riskante Abwege zu begeben: Wer etwas anderes macht, als sich auf die Erstellung einer Monografie zu konzentrieren, reduziert womöglich noch die ohnehin geringen Aussichten auf ein akademisches Fortkommen. So scheint jedenfalls die Haltung vieler Menschen im Feld zu sein.
Die zweite Schwierigkeit liegt im ‚Fluch der Interdisziplinarität‘. Die Verbindung von Fachfragen und neuen technischen Ansätzen führt zu einem Spagat, der doppelten Aufwand bedeutet. Zeit ist aber eine begrenzte Ressource und so zahlt man für Innovation und für die ernsthafte Hinwendung zu neuen Ansätzen einen Preis. Man verliert Zeit – und damit vielleicht zunächst auch Tiefe und Qualität in der Forschung aus traditioneller Sicht. Es ist dann eine Frage der Ergebnisbewertung, ob diese Verluste durch die Gewinne auf der Seite möglicher neuer Erkenntnisse wettgemacht werden.
Das dritte Dilemma ist ein ‚doppeltes Nullsummenspiel‘. Die Fachforschung organisiert sich über begrenzte zeitliche und finanzielle Ressourcen, die in Forschung und Lehre eingebracht werden. Und sie organisiert sich über Curricula, deren Rahmen (in Zeitstunden bzw. Credit Points) ebenfalls feststeht. Das bedeutet auch hier, dass jede Forderung nach der Einbeziehung ‚neuer‘ Themen eine Antwort auf die Frage verlangt, was denn dafür weggelassen, gestrichen, ‚geopfert‘ werden sollte. Da aber alle Lehrinhalte mit gutem Grund Teil des Lehrplans sind, kann diese Frage eigentlich nicht beantwortet werden.
4 DH in den Fächern: Einbeziehung und Ausbildung
Die