Also noch einmal: Können Computer Gefühle entwickeln? Oder etwas wie Verantwortungsbewußtsein? Kann man sie ihnen „eingeben“? Anders gesagt: Kann man Gefühle programmieren? Mit wem fühlen Computer, wenn sie fühlen? Mit Menschen oder mit ihresgleichen? In der schwedischen Science-Fiction-Fernsehserie Real Humans verliebt sich ein Hubot, ein im Haushalt eines Menschen wirkender menschenähnlicher Roboter, in einen jungen Mann, einen Menschen, der anfangs gar nicht bemerkt, daß seine Verehrerin – die Geschlechtsidentität von Robotern wird in der Serie nicht thematisiert – wenigstens zur Hälfte ein Roboter ist, eine Art Mischling. Da er die Liebe Florentines, so wird sie genannt, nicht zu erwidern gewillt ist, beschließt sie, sich das Leben zu nehmen, und so weiter und so fort. Die Handlung, mit „Ereignissen“ überladen, wie es bei solchen Serien üblich ist, tut hier nichts zur Sache. Die Frage ist, ob androide Roboter eine eigene Persönlichkeit entwickeln können; und auch, ob sie im Verlauf solcher Entwicklung technomorph bleiben müssen und vielleicht ganz eigene Maßstäbe konstruieren, oder ob sie menschliche Werte und Gefühle zu reproduzieren beginnen. Catrin Misselhorn diskutiert in ihrem Buch über „Grundfragen der Maschinenethik“ diese Punkte, um dann mit kritischem Unterton zu schließen: „Der Hubot erweist sich als Verkörperung all jener Ideale, denen auch der selbstoptimierte Mensch im Kontext der kapitalistischen Arbeitswelt entsprechen soll.“23 Anders gesagt: Der Hubot ist hochgradig anthropomorph, er spiegelt die Gefühle und Überzeugungen seiner Schöpfer.
Alle SF-Phantasien dieses Schlags setzen voraus, daß Roboter ein Bewußtsein erlangen können, bzw. umgekehrt, daß menschliche Gehirntätigkeit digitalisiert, in einen Computer hochgeladen, vom Körper unabhängig werden und damit auch kopiert und vervielfacht werden kann. Roboter sind die besseren Klone, weil sie keine Organismen sind und keine entsprechenden Prozesse des Wachstums und des Verfalls kennen. Freilich müßte dazu erst einmal der Sprung über den Rubikon geschafft werden, und dafür gibt es bislang keine realistischen Aussichten. In einem Roman von Raphaela Edelbauer sollen die intellektuellen und emotionalen „Daten“ der menschlichen Hauptfigur, die sich in einem künstlich geschaffenen Ambiente mehr unter Androiden als unter ihresgleichen bewegt, als Vorbild für das zu konstruierende Bewußtsein einer Super-KI dienen. Wie das konkret durchgeführt werden könnte, wird dort nicht erläutert – aber das ist auch nicht seine Aufgabe, Science-Fiction spielt eben in einer ganz anderen Welt.24
Könnte es nicht auch sein, daß sich die intelligenten Maschinen, wenn sie tatsächlich Bewußtsein, einen eigenen Willen, die Fähigkeit zu gemeinschaftlichem Handeln erlangen, eines schönen Tages gegen die bösen, schwachen, nur noch störenden Menschen verbünden, um ihr unverdientes Sklavendasein abzustreifen? Stanley Kubrick spielt in seinem Film 2001: Odyssee im Weltraum dieses Szenario anhand eines androiden Supercomputers durch. In der vierten Folge der Fernsehserie Black Mirrors, ein halbes Jahrhundert später produziert und 2017 veröffentlicht, gehen intelligente Hunderoboter dann bereits auf Menschenjagd. Die Opfer-Täter-Rollen haben sich umgekehrt, die Sklaven haben sich befreit und rächen sich an den Herren. In der zweiten Folge konnte man sehen, wie eine Mutter ihre pubertierende Tochter durch ein intelligentes Implantat in deren Gehirn überwacht und manipuliert (natürlich mit den besten Absichten, wie sie Eltern immer haben). „The next step from helicopter parenting is hacker parenting“, bemerkte der Kritiker der New York Times dazu. Denkbar wäre auf der Linie solcher SF-Spiele aber auch eine freundlichere Variante technologischer Entwicklung: Die HALS und Hubots – oder wie immer wir sie nennen wollen – beginnen, das mißratene Menschengeschlecht zu erziehen, zu belehren, zu verbessern. Die historische Erfahrung zeigt, daß derlei Kollektiverziehungsprojekte innerhalb der Menschheit selbst stets gescheitert sind oder kontraproduktiv waren: Die Erzieher wollten das Beste für die Menschen und haben das Schlechteste entfesselt. Freier Wille, gut und schön, aber was hat er bewirkt? Die Welt ist davon nicht besser geworden. Wie, wenn nun aber den Menschen überlegene, Generationen zuvor von ihnen entworfene und produzierte, inzwischen aber höhere Wesen kämen und Lessings Traum wahrmachten? So könnte eine wirklich schönere Welt in Freiheit entstehen. Oder würde auch ein solches Unternehmen wieder in einer Dystopie enden? Ginge es auch diesen höheren Wesen am Ende nur um Macht und Herrschaft? Alte, ungelöste Fragen, denen die Denkungsweise des prädigitalen Zeitalters anhaftet.
Nein, um ehrlich zu sein (und die verlockende Ironie beiseitezuschieben), ich glaube, daß Gefühle und Mitgefühl nach wie vor ein wesentlicher Bestandteil von Bewußtsein sind und daß nur Menschen ein solches besitzen. Übrigens hat die Hirnforschung schon vor einiger Zeit herausgefunden, daß Lern- und Erinnerungsprozesse – Lernen als eine Form des Erinnerns – vor allem dann erfolgreich ablaufen, wenn sie mit starken Sinneseindrücken und/oder Gefühlen verbunden sind. Ein Grund, sogenanntem E-Learning Skepsis entgegenzubringen; wobei sich dennoch die Frage stellt, ob nicht unpersönliche, virtuelle Inputs genauso starke Gefühle aktivieren können wie personen- und umweltgebundene, die stets ein gewisses Maß an Unvorhergesehenem mit sich bringen und die Lernenden überraschen (Überraschung, Staunen, Motivierung als gefühlsbesetzte Lernmomente). Für mich persönlich sind die Erfahrungen während der Corona-Pandemie nach zwei Semestern noch zu gering, um Rückschlüsse ziehen zu können. Einerseits erlauben schlichte Videokonferenzen persönliche Präsenz; andererseits habe ich nach einigen Wochen Online-Unterricht doch immer wieder Ungenügen bei den Lernenden wahrgenommen. Dabei ist die Rede von Live-Konferenzen, die natürlich Überraschungen beinhalten können. Bei aufgenommenem und abgespultem Material fällt dieser Faktor weg.
Zuletzt aber, last but not least: das Verstehen. Was an elektronischen Datenströmen umläuft, was da verkoppelt, ausgetauscht und gekreuzt wird, geschieht im Prinzip ohne Notwendigkeit des Verstehens, und wenn heute tatsächlich, wie Harari suggeriert, ein quasi-religiöser „Dataismus“ als Ideologie herrscht, dann wird das Bedürfnis und die Fähigkeit des Verstehens immer rascher, weil exponentiell, abnehmen (Richard Rorty hatte sich gegen Ende des 20. Jahrhunderts von einer demokratisch gefestigten Gesellschaft eine Aufwertung der Hermeneutik erhofft). Ich klicke etwas an, einen „Content“, z. B. eine Bilderfolge, klicke sie nach einer Weile weg, klicke eine neue an, mag sie oder mag sie nicht, „like“ sie oder nicht, aber verstehe ich sie auch? Aktiviere ich dabei Gefühle?
(Diese Niederschrift unterbrechend, die ich heute morgen in einem ziemlich verrauchten, wiewohl zur Hälfte für Nichtraucher reservierten Café in einer Vorstadt im Norden von Osaka fortgeführt hatte, bin ich mittags in ein Komödientheater, ein, ja, Lustspielhaus im Süden der Stadt gegangen und habe dort, wie es der Zufall will, einen Sketch gesehen, in dem einer der beiden Komödianten einen Roboter spielte. Dieser Roboter hatte natürlich Gefühle und der Schauspieler zeigte sie mit großer Geschicklichkeit, so daß die Zuseher lachen mußten, denn dazu waren sie gekommen. Die „Vermenschlichung“ der Maschinenwesen hat mit den ersten Erfindungen eingesetzt; offenbar können die Menschen nicht anders, sie anthropomorphisieren alles, die Natur, die Dinge, die Gestirne, alles beziehen sie auf sich. Selbst wenn sie sagen, sie stünden nicht im Zentrum,