Ludzie przeciw technologii. Jak internet zabija demokrację (i jak ją możemy ocalić). Jamie Bartlett. Читать онлайн. Newlib. NEWLIB.NET

Автор: Jamie Bartlett
Издательство: OSDW Azymut
Серия:
Жанр произведения: Поэзия
Год издания: 0
isbn: 978-83-8110-810-2
Скачать книгу
Nikt nie wie dokładnie dlaczego (niektórzy naukowcy twierdzą, że to wypracowana cecha, która pomaga nam współdziałać, coś w rodzaju „błędu na rzecz swojej grupy”). Oczywiście w pewnych warunkach możemy zmieniać zdanie i robimy to. Starannie przemyślane, rzeczowe argumenty, które uwzględniają inny światopogląd lub pochodzenie rozmówcy, mogą przynieść skutek, lecz jest to proces powolny i żmudny44.

      Niestety, natura komunikacji cyfrowej zwykle nie sprzyja takim praktykom, ponieważ interakcja z rywalami bądź adwersarzami na ogół bywa szybka, ulotna i naznaczona silnymi emocjami. Z tego względu nie polepsza ona przesadnie wzajemnego zrozumienia, a często może przynosić skutek odwrotny. W 2001 roku cyberpsycholog John Suler wyjaśnił, czemu tak jest, i wyliczył szereg czynników, które pozwalają użytkownikom Internetu lekceważyć normy społeczne obowiązujące w realnym świecie. W Internecie – pisze Suler – nie znamy ani nie widzimy swoich rozmówców (a oni nie znają ani nie widzą nas). Komunikacja jest natychmiastowa, pozornie pozbawiona zasad i wolna od odpowiedzialności, a rozgrywa się w miejscu, które odbieramy jako alternatywną rzeczywistość. Z tych powodów robimy rzeczy, których nie zrobilibyśmy w prawdziwym życiu. Suler nazywa to „toksycznym pozbawieniem zahamowań”. Jest to zjawisko pomijane we wszystkich artykułach o bańkach informacyjnych i bańkach filtrujących. Internet nie tylko tworzy małe plemiona, lecz daje im także łatwy dostęp do wrogich plemion. Nieustannie widzę w sieci poglądy przeciwstawne do moich. Rzadko zmieniam zdanie z tego powodu. Częściej utwierdzam się w przekonaniu, że jestem jedynym przytomnym człowiekiem w morzu internetowych kretynów.

      Niesprawiedliwie byłoby składać to wszystko na karb technologicznych gigantów, znaczna część powyższych słabości tkwi bowiem w ludziach, nie w maszynach. Technologia podniosła je do potęgi n-tej, ale i my nie jesteśmy bez winy. Nie ma też co idealizować życia przed Internetem. Ludzie zawsze skupiali się we frakcje, a polityka zawsze dzieliła. Nigdy też nie była wolna od kłamstw i manipulacji (Harry Truman powiedział raz o Richardzie Nixonie, że jest „załganym sukinsynem i draniem, który kłamie oboma kącikami ust, a jeśliby nawet przyłapał się na mówieniu prawdy, skłamałby, żeby nie tracić wprawy”).

      Tak się jednak składa, że technologiczni potentaci z opisanych wyżej ludzkich słabości uczynili strukturalną cechę odbioru wiadomości i wykorzystują je dla pieniędzy. Niekiedy ich finansowe motywacje stoją w poprzek obywatelskiej potrzeby informacji, a realizowane są za pomocą szerokiej palety precyzyjnych środków. Wszystkie platformy mediów społecznościowych podkreślają, że są właśnie „platformami”, a nie „wydawcami”, co oznacza, że w odróżnieniu od gazet nie ponoszą prawnej odpowiedzialności za udostępniane w nich treści. To zabezpieczenie (w prawie UE znane jako klauzula mere conduit lub wyłączenie odpowiedzialności za zwykły przekaz) jest niesłychanie ważne dla firm takich jak Facebook czy YouTube, ponieważ bez niego musiałyby jakoś kontrolować miliardy materiałów, które publikuje się na ich stronach. W rezultacie nie są skore do zbyt częstych interwencji poprzez usuwanie kontrowersyjnych lub fałszywych treści, aby ustawodawcy nie uznali, że zachowują się jak wydawcy, i nie poddali ich adekwatnym regulacjom. Przed tym dylematem nie ma łatwej ucieczki.

      Niemniej pozorna neutralność jest już sama w sobie formą redaktorskiej decyzji. W mediach społecznościowych wszystko i tak podlega selekcji, dokonywanej zwykle przez jakiś tajemniczy algorytm, a nie żywego redaktora. Algorytmy te zaprojektowano tak, by podawały treści, które z największym prawdopodobieństwem spowodują kliknięcie i tym samym pozwolą sprzedać najwięcej reklam. Na przykład funkcja autoodtwarzania YouTube’a wybiera wideo na podstawie niebotycznie wyrafinowanego rachunku, który określa, co ma największe szanse utrzymać uwagę odbiorcy. Według Guillaume’a Chaslota, eksperta od sztucznej inteligencji, który opracowywał dla YouTube’a mechanizm rekomendacji, algorytmy nie służą promowaniu wartościowych treści, lecz maksymalizacji czasu oglądania. „Wszystkie inne kwestie traktowano jako stratę czasu” – powiedział niedawno „Guardianowi”45.

      Te bezwolne decyzje mają potężne konsekwencje, ponieważ nawet niewielki efekt potwierdzenia może uruchomić samoczynne utrwalanie jakiejś myśli. Powiedzmy, że ktoś kliknie na link o lewicowej polityce. Algorytm odbiera to jako wyraz zainteresowania lewicą, więc podsuwa mu więcej tego samego. Użytkownik ma przed sobą takie, a nie inne treści, więc rosną szanse, że znów na nie kliknie – a to jest odczytywane jako kolejny sygnał. Z badań zrobionych przez Chaslota po odejściu z YouTube’a wynika, że firma ta planowo zwiększa zasięgi kontrowersyjnych filmików. YouTube jednak zaprzecza. Gwoli sprawiedliwości w świecie technologii nie spotkałem nikogo, kto byłby zachwycony takim stanem: w ostatnich latach większość osób z branży zgodziła się, że jest to problem, i obiecała się nim zająć. Sęk w tym, że nikt rozmyślnie nie nadaje platformom internetowym tabloidowego charakteru – to jedynie matematyczna reakcja na nasze upodobanie do ostrych i bulwersujących nagrań. Oto zwierciadło i multiplikator w jednym: gigantyczne sprzężenie zwrotne oparte na big data. Wprowadzamy dane i otrzymujemy rezultaty, które się replikują. Gazety gonią za sensacją, bo od lat wiedzą o naszych upodobaniach to, co algorytmy odkryły dopiero niedawno. Różnica polega jednak na tym, że wydawca ponosi odpowiedzialność prawną za to, co drukuje, a obywatele zasadniczo orientują się w poglądach reprezentowanych przez poszczególne redakcje. Algorytmy są natomiast pozornie neutralne i nie można ich pociągnąć do odpowiedzialności – mimo że sam algorytm YouTube’a wpływa na to, co ogląda półtora miliarda osób, czyli więcej niż czytelnicy wszystkich gazet świata razem wzięci.

      Конец ознакомительного фрагмента.

      Текст предоставлен ООО «ЛитРес».

      Прочитайте эту книгу целиком, купив полную легальную версию на ЛитРес.

      Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.

      1

      Według Uniwersalnego słownika języka polskiego technologia to „przetwarzanie w sposób celowy i ekonomiczny dóbr naturalnych w dobra użyteczne (produkty), także wiedza o tym procesie”. Można zatem mówić o technologii przerobu kory na płyty budowlane lub technologii żywności. Wydaje się jednak, że dla współczesnych użytkowników polszczyzny „technologia” to przede wszystkim szeroko pojęty dorobek kultury cyfrowej: smartfony, aplikacje, algorytmy etc. – i w tym właśnie sensie wyraz ten występuje w niniejszej książce [przyp. tłum.].

      2

      W 2017 roku 95 miliardów dolarów z całkowitego dochodu Google’a – liczył on 111 miliardów dolarów – pochodziło z reklam. Podobnie wyglądały proporcje w przypadku Facebooka, Twittera i Snapchata. Oczywiście, sami poniekąd się na to zgodziliśmy w drodze wymiany: moje dane za wasze darmowe usługi. My pozwalamy się szpiegować pewnym ludziom, oni za to udostępniają nam za darmo niezwykłą usługę. Lecz ta wymiana jest nieco jednostronna. Niemal nikt nie czyta zasad i warunków, które odhacza ptaszkiem, ponieważ są one długie


<p>44</p>

Dolores Albarracin et al. (2017), Debunking: a meta-analysis of the psychological efficacy of messages countering misinformation, „Psychological Science”, 28 (11), 1531–1546.

<p>45</p>

Paul Lewis, “Fiction is outperforming reality”: how YouTube’s algorithm distorts truth, „Guardian”, 2 lutego 2018.