Data Intelligence. Manfred Kulmitzer. Читать онлайн. Newlib. NEWLIB.NET

Автор: Manfred Kulmitzer
Издательство: Readbox publishing GmbH
Серия:
Жанр произведения: Отраслевые издания
Год издания: 0
isbn: 9783347101456
Скачать книгу
an Daten gibt.

      Im Allgemeinen bestimmt ein Algorithmus, wie sich ein Computerprogramm bei bestimmten Aktionen verhalten soll. Im Fall der sozialen Medien wird somit festgelegt, welche Inhalte angezeigt werden. Abhängig vom programmierten Algorithmus können Prioritäten auf Inhalte von Freunden gesetzt werden, mit denen man oft in Kontakt steht oder auf Inhalte, die viele andere Menschen kommentiert haben. Es kann zudem sein, dass Inhalte, die man häufig ignoriert, gar nicht mehr angezeigt werden.

      Bei Suchmaschinen bezieht sich die Programmierung auf die Auswahl, Sortierung und Anzeige der relevanten Ergebnisse zum jeweiligen gesuchten Begriff, in Abhängigkeit von den automatisch festgestellten Interessen eines Individuums. Somit werden uns durch die Algorithmen genau jene Themen aufgezeigt, an denen wir potenziell Gefallen finden könnten und welche die - zuvor durch Computer aufgezeichneten - Interessen bestätigen oder diesen ähnlich sind.

      «Filterblasen werden durch - meist intelligente - Algorithmen verursacht und entstehen durch deren Versuch, die Ergebnisse zu personalisieren.»

      Die Kriterien, nach denen ein Algorithmus arbeitet, hängen von der jeweiligen Plattform ab und sind in der Regel nur oberflächlich bekannt, da die Unternehmen ihre Algorithmen und Kriterien als Wettbewerbsvorteil sehen, daher gut behüten und geheim halten.

      Diese einseitige Information - die man selbst so nicht wirklich wahrnimmt - kann dabei die eigene Weltansicht eines Individuums verstärken, während andere Meinungen und Überzeugungen ignoriert oder gar nicht berücksichtigt werden.

      Und dies kann zu einem verzerrten Meinungsüberblick führen und ebenfalls Einfluss auf die jeweilige Meinung des Individuums selbst haben. Darüber hinaus wird einem die Möglichkeit zur umfassenden Reflexion eines Themas genommen und es besteht die Gefahr der Anpassung an eine der ständig dargestellten Meinungen.

      «Es ist eine Frage der eigenen Informations- und Medienkompetenz, um Meinungs- und Filterblasen zu vermeiden.»

      Man muss sich dabei einer durchaus wichtigen Tatsache bewusst sein: Die sozialen Medien sind primär zur Unterhaltung der jeweiligen Benutzer ausgerichtet und zeigen daher schwerpunktmäßig jene Inhalte an, welche individuell von Interesse sind. Unter diesem Aspekt ist bei der heutigen Fülle an verfügbaren Informationen die individuelle Vorauswahl durch einen Algorithmus basierend auf dem jeweiligen Interesse durchaus hilfreich.

      Wenn man sich aber umfassend informieren und orientieren möchte, ist die umfassende Suche auf unterschiedlichen Plattformen und Medien nach den verschiedenen Ansichten und Meinungen empfehlenswert. Schlussendlich haben viele Zeitungen ebenfalls eine politische Ausrichtung, mit der man entsprechend umgehen können muss.

      Wirklich problematisch werden Filterblasen erst dann, wenn diese gezielt genutzt werden, um Menschen zu beeinflussen. Dies ist beispielsweise bei der Verbreitung von Fake News der Fall, wo jemand eine Falschinformation bewusst über die digitalen Kanäle verbreitet, um andere zu täuschen.

      Da die heutige Verteilung von Informationen in den digitalen Medien meist fremdbestimmt und hochgradig automatisiert ist, gelingt dies in der Regel auch.

      Ein Beispiel für eine solche, potenzielle Beeinflussung von Menschen zeigt die Arbeit der in Großbritannien ansässigen und auf Datenanalysen spezialisierten Firma „Cambrigde Analytica“ auf. Anfangs war die Firma überwiegend in den USA tätig, weil dort die Datenschutzbestimmungen weniger streng sind als in Europa.

      Das Unternehmen sammelte und analysierte im großen Stil die Daten über potentielle Wähler mit dem Ziel, durch individuell zugeschnittene Botschaften das Wählerverhalten über sogenanntes Micro-Targeting zu beeinflussen. Hierfür habe man gemäß Aussage der Firmenleitung eine einzigartige Methode zur Erstellung von Persönlichkeitsprofilen nach dem OCEAN Modell entwickelt und individuelle Profile erstellt.

      Bei OCEAN aka „Fünf Faktoren“ handelt es sich um ein Modell der Persönlichkeitspsychologie, wonach sich jeder Charakter einer Persönlichkeit anhand der jeweiligen Ausprägung von fünf Haupteigenschaften bestimmen lässt.

      Mit Hilfe des OCEAN-Modells kann jeder Mensch den folgenden Dimensionen zugeordnet werden:

      • Openness ist die Offenheit oder Aufgeschlossenheit für Erfahrungen,

      • Conscientiousness ist die Gewissenhaftigkeit oder der Perfektionismus,

      • Extraversion ist die Geselligkeit,

      • Agreeableness ist die Verträglichkeit im Sinne von Kooperationsbereitschaft, Rücksichtnahme und Empathie), und

      • Neuroticism ist der Neurotizismus, also die emotionale Labilität und Verletzlichkeit.

      Statt Persönlichkeiten wie früher üblich in „Persona“ zu einzuordnen, entstehen mit den «Fünf Faktoren» sehr individuelle Persönlichkeitsprofile. Die Entwicklung der «Fünf Faktoren» begann bereits in den 1930er Jahren mit dem lexikalischen Ansatz, dass sich Persönlichkeitsmerkmale in der Sprache niederschlagen; das heißt es wird angenommen, dass alle wesentlichen Unterschiede zwischen Personen bereits im Wörterbuch durch entsprechende Begriffe repräsentiert sind.

      Auf der Basis von Listen mit über 18.000 Begriffen wurden durch Faktorenanalyse fünf sehr stabile, unabhängige und weitgehend kulturstabile Faktoren gefunden: eben die «Fünf Faktoren» oder «Big Five» [33]. Man kennt dies als Profiling, eine bekannte Technik zur Persönlichkeitsanalyse, die mit den Fortschritten der Künstlichen Intelligenz stark ausgebaut worden ist und nun vielfach genutzt wird.

      Gemäß Firmenaussagen war das Unternehmen im Jahr 2014 an 44 US-Wahlkampf-Kandidaturen beteiligt, zudem nutzten angeblich Unterstützer der Brexit-Kampagne in Großbritannien deren Dienste.

      Überdies gab die Firma an, in vier Kampagnen in Asien, Afrika und Südamerika tätig gewesen zu sein. Nach intensiver negativer Medienpräsenz meldete das Unternehmen im Mai 2018 die Insolvenz an, allerdings gründeten die ehemaligen Eigentümer sehr rasch eine neue Gesellschaft mit dem Namen „Emerdata“ [14].

      Wenn nun alle Kollegen und Freunde eine bestimmte Nachricht für die Wahrheit halten, dann hat man selbst einen guten Grund, diese tatsächlich falsche Nachricht oder Verschwörungstheorie ebenfalls für wahr zu halten.

      Je stärker jemand an Verschwörungstheorien glaubt, desto weniger unterscheidet diese Person die Qualität von Informationsquellen - somit ist ihnen ein Video auf YouTube genauso viel wert wie Verlautbarungen aus offiziellen wissenschaftlichen Quellen, wie vom Massachusetts Institute of Technology in Cambridge oder der Johns Hopkins University in Baltimore.

      «Filterblasen können verhindern, dass falsche Meldungen korrigiert werden und somit können sich diese Falschmeldungen sogar noch weiter ausbreiten.»

      Damit können Filterblasen zu einer Bedrohung für demokratische Meinungs- und Entscheidungsprozesse werden - unterschiedliche Meinungen werden nicht nur nicht gehört, sondern diese werden durch die Filterblasen als sogenannte Gruppen-Polarisation mitunter radikalisiert. Deshalb sollte man aktiv den Kontakt mit Andersdenkenden suchen, um andere Standpunkte nachvollziehen zu können, ohne diese zwangsläufig teilen zu müssen.

      Hier möchte ich noch ein interessantes Experiment für das Phänomen der Filterblasen beschreiben, das man sehr einfach selbst durchführen kann: Dazu wählt man einen Begriff - beispielsweise „Ägypten“ - und dann geben drei Personen diesen in die Suchmaschine von Google jeweils auf dem eigenen Computer ein. Wie dann schnell ersichtlich wird, sind die Treffer auf der ersten Seite dann individuell sehr unterschiedlich ausgestaltet - je nach privater Nutzung der Suchmaschine, denn die KI-Algorithmen von Google nutzen die jeweiligen Präferenzen, um die Treffer zu „optimieren“.

      Somit sieht nicht jede Person das gleiche, obwohl man den gleichen Begriff sucht - ein klassischer Fall einer Filterblase! In meinen Recherchen habe ich herausgefunden, dass in vielen Fällen die Übereinstimmung nur 30 Prozent beträgt.

      Aus den in diesem Kapitel beschriebenen Gründen sollte man immer jene Informationen hinterfragen, welche die eigenen Überzeugungen und Vorurteile bestätigen. Insbesondere alle Nachrichten, die nur allzu gut in das eigene Weltbild passen, verdienen