Kämpf um deine Daten. Max Schrems. Читать онлайн. Newlib. NEWLIB.NET

Автор: Max Schrems
Издательство: Bookwire
Серия:
Жанр произведения: Изобразительное искусство, фотография
Год издания: 0
isbn: 9783990011065
Скачать книгу
oder eher ungesund leben, wenn ich das genaue Gegenteil bin? Das ist nichts anderes als eine geschlechtsbasierte Gruppenhaftung. Die EU unterband diese Form der Diskriminierung aufgrund eines X- oder Y-Chromosoms mit »Unisex-Versicherungen«. Eigentlich nur logisch, trotzdem eine große Diskussion und ein Dammbruch in vielen Ländern.

      In den USA ist es weiter vollkommen normal, dass der Tarif Ihrer Autoversicherung je nach Automarke, Autotyp, Alter, Bildung, Wohnort, Geschlecht und unzähligen anderen Faktoren berechnet wird. Nur die Hautfarbe wird noch nicht herangezogen, das wäre wohl dann politisch inkorrekt.

      Wenn Sie dann, so wie ich, einen ausländischen Führerschein haben, den Sie nach unzähligen Fahrstunden und Kursen langwierig erworben haben, müssen Sie trotzdem deutlich mehr zahlen, als jemand der einen US-Führerschein hat, den man auch in 30 Minuten bekommt. Ich wurde als Ausländer einfach in einen Topf mit Leuten geworfen, die für ein Kilo Kaffee Ihren Führerschein in irgendeinem Entwicklungsland bekommen haben. Das ist eine der Unschärfen in der Praxis. Pech.

      Bei massenhafter Datenverarbeitung und Analyse zahlt es sich einfach nicht aus, auf den Einzelfall einzugehen. Das ist wie beim Tontaubenschießen. Wenn Sie nur wenige Schüsse haben und nur wenige Tontauben, dann konzentrieren Sie sich auf die eine Tontaube und zielen genau. So war das in unserer kleinen analogen Welt. Wenn Sie aber 100 Gewehre haben, die pro Sekunde 1 000 Schüsse abgeben und Sie müssen 10 000 Tontauben treffen, dann drücken Sie einfach nur drauf. Durch die Masse an Schüssen und Objekten treffen Sie im Großen und Ganzen schon irgendwas, solange Sie generell in die richtige Richtung zielen.

      Ähnlich passiert das auch in vielen neuen Systemen zur massenhaften Datenauswertung. Die paar Schuss, die danebengehen, sind einfach nur eine Fehlerquote. Dabei fällt auch die Individualität des einzelnen Menschen in den Bereich Fehlerquote. Bleibt nur abzuwarten, ob durch noch mehr Daten und noch mehr Analysen dieser Daten die Auflösung höher und die Fehlerquoten kleiner werden. Eine paradoxe Hoffnung.

      Ein weiteres Problem bei vielen der Phänomene, die als Big Data bezeichnet werden, ist, dass Sie in den meisten Fällen gar nicht nachvollziehen können, welche Faktoren in welchem Verhältnis bei einer solchen Analyse eine Rolle spielen. Nicht mal die Techniker, die diese Systeme erstellen, können das immer genau erklären. Ihnen reicht es oft, dass das System am Ende ein möglichst gutes Ergebnis bringt. Man probiert einfach verschiedene Versionen und vergleicht die Ergebnisse (»trial and error«). Die Version mit dem besten Ergebnis wird genommen. Details zu erforschen wäre auch wieder sinnlos investiertes Geld.

      Noch einen großen Schritt weiter in unsere intimen Informationen geht es, wenn aus den bestehenden Daten nicht nur neue Daten generiert werden, sondern auch noch unser zukünftiges Verhalten hochgerechnet werden kann. Das hört sich jetzt für Sie vielleicht etwas absurd, futuristisch und nach dem Film »Minority Report« an, ist aber heute schon in vielen Bereichen Realität.

      Ein Kreditranking ist nichts anderes als eine Wahrscheinlichkeit, dass Sie zukünftig Ihre Rechnungen zahlen. Errechnet wird das, je nach Kreditbüro, aus Ihrem bisherigen Verhalten und dem Vergleich mit dem Verhalten anderer Menschen, die Ihnen ähnlich sind. Die Prognosen sind so gut, dass Unternehmen durchaus viel für diese Informationen bezahlen.

      Auch die Idee, Zukunftsvoraussagen mit unglaublich großen Datenmengen zu machen, ist nicht wirklich neu. Denken Sie an den Wetterbericht. Hier werden schon lange Milliarden Datenpunkte von Messstationen auf der ganzen Welt verrechnet, und am Ende kommt das Wetter der nächsten Stunden oder der nächsten zwei Wochen auf ein paar Kilometer genau raus. Das Ganze funktioniert auch mit einer sehr hohen Trefferwahrscheinlichkeit. Mit der immer billigeren Rechenleistung zogen solche Systeme auch bereits in anderen Bereichen, wie der Naturwissenschaft oder im Börsenhandel, ein.

      Problematisch wird es für Sie, wenn nicht mehr das Wetter, Aktienkurse oder irgendwelche Objekte mit Milliarden Datenpunkten erfasst und dann analysiert werden, sondern Sie das Objekt der Berechnung werden. Wenn die Kosten für solche Analysen immer billiger werden und die Daten immer umfangreicher und genauer, so ist es nicht unwahrscheinlich, dass genau das die Zukunft ist. Die Messpunkte gibt es heute schon, und sie liefern jetzt schon Unmengen an Daten: Ihre Klicks, Ihre Suchanfragen, Ihre Handydaten und die Daten der vernetzten Geräte, die Sie täglich verwenden. Anreichern kann man das immer noch mit Daten von Datenhändlern oder anderen Personen. Aus all diesen kleinen Informationen wird Ihre persönliche Großwetterlage errechnet. Was Sie denken werden, was Sie zukünftig wollen könnten, wer Sie zukünftig sein werden. Dabei lassen sich Dinge vorhersagen, die Sie selbst noch gar nicht wissen. Weil das immer leichter und billiger wird, werden das auch immer mehr Unternehmen oder Staaten anwenden. Dass Unternehmen unser Kaufverhalten analysieren und uns dann gezielt sagen, was uns sonst noch interessieren könnte, ist heute schon Realität – vor allem im Netz. Ein extremeres Beispiel sind Systeme, die in den USA ausrechnen, ob ein Straftäter rückfällig werden könnte, was in die Bewährungsentscheidung einfließt. Andere Systeme berechnen Orte, an denen nach den neuesten Daten vermehrt Straftaten auftreten werden, die Polizeikräfte patrouillieren dort präventiv und kontrollieren vermehrt Leute. In den USA werden Verbrechensrückgänge von bis zu 30% kolportiert. Was vor 10 Jahren also noch Science-Fiction war, ist heute schon zu einem gewissen Grad real.

      Nicht alle theoretisch möglichen Prognosesysteme werden uns morgen in der Realität beschäftigen. Wenn Sie aber an die Verbrechensbekämpfung denken, ist sowas wie in »Minority Report« nicht mal so absurd: IT-Systeme können heute schon mit einer respektablen Trefferwahrscheinlichkeit unser Verhalten berechnen und damit unter Umständen auch Verdachtsmomente gegen einzelne Personen liefern. Diese Systeme werden auch immer weiter verbessert. Wenn sie gut genug funktioniert, kann eine solche Analyse durchaus einen ernstzunehmenden Verdacht darstellen, dass jemand etwas getan hat oder zukünftig tun wird.

      Genau so ein begründeter Verdacht oder ähnliche Ansatzpunkte sind in demokratischen Ländern üblicherweise die Basis, um Maßnahmen gegenüber den einzelnen Bürgern zu erlauben (zum Beispiel Hausdurchsuchungen, Identitätsfeststellungen, DNA-Tests oder der Ausspruch von Wohnungsverboten gegenüber potenziell gewalttätigen Ehemännern). Solche Maßnahmen werden heute schon gesetzt, um in der Folge überhaupt feststellen zu können, ob jemand tatsächlich ein Täter ist oder um zukünftige Gefahren zu vermeiden. Heute braucht man dazu einen begründeten Verdacht, also einen analogen Anhaltspunkt.

      Wenn die Recherche eines Polizisten, eine Meldung bei der Polizei oder der Tipp eines Hinweisgebers als Verdachtsmoment für solche Maßnahmen ausreichen, warum soll dann nicht auch eine zu 95% korrekte Computerprognose so ein begründeter Verdacht sein? Im Kern ist eine Big Data-Analyse ja auch nichts anderes als das, was die Polizei heute schon tut. Man sucht Informationen, kombiniert diese, vergleicht sie mit Erfahrungswerten und zieht seine Schlüsse in vielen Fällen auch im Hinblick auf zukünftige Entwicklungen. Der Unterschied ist nur, dass man das mit Hilfe der Technologie noch viel umfangreicher, genauer und flächendeckender machen kann. Ein permanentes Analysesystem könnte also eine richtiggehende Verdachts-Fabrik werden und permanent Tipps über Aktuelles und Zukünftiges absondern. Der Überwachungsdruck würde damit um ein Vielfaches steigen, die Aufklärungsraten aber eventuell auch.

      Was wir heute schon sehen, sind erste Ansätze einer solchen Entwicklung in einzelnen Bereichen, oder zumindest, dass die Technologie dafür Einzug hält. Wenn es aber billig genug ist, betrifft die digitale Glaskugel dann nicht mehr nur potenzielle Straftäter, Häftlinge oder Ihre Zahlungsmoral, sondern einen Großteil Ihres täglichen Lebens. Sie werden klassifiziert und abgestempelt, bevor Sie selbst noch eine Entscheidung getroffen haben. Alles andere wäre auch unlogisch. Ein Bauer wartet auch nicht, bis es wirklich regnet und gibt dem Wetter damit eine zweite Chance, wenn der Wetterbericht eindeutig und üblicherweise korrekt ist. Warum sollten Unternehmen oder der Staat Ihnen gegenüber anders handeln?

      Auf einer moralischen Ebene sieht es aber ganz anders aus: Ihr freier Wille wird von diesen Prognosen einfach negiert. Der freie Wille, die Unberechenbarkeit des Menschen ist nach dieser Logik nur eine Fehlerquote. Der Mensch ist in einer solchen Zukunft generell ein berechenbares Ding und kein freies Wesen mehr.

      Das ist natürlich ein ethisch und philosophisch höchst problematisches Minenfeld: Wie frei sind Ihre Entscheidungen überhaupt? Hat der Mensch eigentlich einen wirklich freien Willen, so wie wir uns das landläufig vorstellen?