Ludzie przeciw technologii. Jak internet zabija demokrację (i jak ją możemy ocalić). Jamie Bartlett. Читать онлайн. Newlib. NEWLIB.NET

Автор: Jamie Bartlett
Издательство: OSDW Azymut
Серия:
Жанр произведения: Поэзия
Год издания: 0
isbn: 978-83-8110-810-2
Скачать книгу
Inteligentne domy chcą znać waszą ulubioną temperaturę, wiedzieć, kiedy się myjecie, co gotujecie i ile śpicie. W niestrudzonej pogoni za danymi wszystko zostanie zebrane, przeanalizowane i porównane z wszystkim innym.

      Ten natłok danych przekracza dziś znacznie ludzkie możliwości analizy, dlatego też algorytmy zajmują tak kluczowe miejsce we współczesnej gospodarce. Algorytm to prosta matematyczna formuła, zestaw instrukcji, które komputer wdraża, żeby wykonać dane polecenie. To tylko suchy opis – w istocie algorytm jest magicznym kluczem otwierającym wrota skarbca. Algorytmy filtrują, przewidują, zestawiają, nakierowują i zdobywają wiedzę. Już teraz waszym życiem sterują algorytmy, które decydują o wszystkim, od rekomendacji Amazona i waszego news feedu na Facebooku po wyniki, które wyskakują wam w Google’u. O sugestiach serwisów randkowych. O waszej trasie do pracy. O muzyce, której słuchacie. O agregatorach newsów. O waszych ubraniach.

      Nowoczesne algorytmy operujące big data mają tę niepokojącą właściwość, że potrafią domyślić się na nasz temat rzeczy, o których sami nie wiemy. Ludzie są zwykle dość przewidywalni i przy stosownej porcji danych – nawet banalnych i nieistotnych okrawków typu jakich piosenek ktoś słucha – algorytmy mogą dowiedzieć się bardzo istotnych rzeczy na temat czyjejś osobowości.

      W 2011 roku Michał Kosiński, psycholog pracujący wówczas na Uniwersytecie w Cambridge, stworzył internetową sondę, która badała cechy osobowościowe uczestników. Psychologowie od dziesiątków lat opracowują kwestionariusze służące określaniu osobowości15. Kosiński chciał zobaczyć, czy dzięki danym z Internetu można ustalić coś istotnego na temat osobowości danego człowieka bez uciekania się do ankiety; czy da się opracować profil psychologiczny jedynie na podstawie lajków z Facebooka. Kosiński i jego zespół ułożyli kilka testów osobowości i zamieścili je na Facebooku, zapraszając użytkowników do ich wypełniania. Ankieta rozniosła się jak wirus – bądź co bądź żyjemy w dobie narcyzmu – i wypełniły ją miliony internautów. Kosiński zestawił odpowiedzi udzielone przez uczestników z ich polubieniami z Facebooka i tym samym zbadał, jak jedne mają się do drugich. Na tej podstawie stworzył algorytm, który wyłącznie na podstawie lajków był w stanie odgadnąć wiele osobistych szczegółów na temat milionów użytkowników portalu spoza ankietowanej grupy. W 2013 roku Kosiński ogłosił wyniki i udowodnił, że łatwo dostępne cyfrowe rejestry zachowania można wykorzystać, by szybko i celnie określić czyjąś orientację seksualną, przynależność etniczną, przekonania religijne i polityczne, cechy charakteru, inteligencję, wiek i płeć, a także to, czy jest szczęśliwy, czy używa substancji uzależniających i czy jego rodzice się rozstali1617.

      W 2017 roku odwiedziłem Michała Kosińskiego na Uniwersytecie Stanforda, na którym obecnie pracuje. Wielu uważa Stanforda za uniwersytet Doliny Krzemowej – leży nieopodal, a założyciele Cisco, Google’a, Hewletta-Packarda i Yahoo bez wyjątku ukończyli tę uczelnię. Michał, który wygląda o wiele za młodo na profesora, zabrał mnie do swojego gabinetu w Podyplomowej Szkole Biznesu (naturalnie) i zgodził się zademonstrować mi, jak działa jego system. Powierzyłem algorytmowi Michała około dwieście lajków ze swojego Facebooka: Rodzina Soprano, Kate Bush, Terminator 2, magazyn „The Spectator” i tym podobne. Algorytm wyruszył w świat na poszukiwanie osób o takich samych kombinacjach lub wariantach kombinacji. Małe kółko wirowało przez kilka sekund na ekranie, algorytm odprawiał swoje czary, a potem wyskoczyły wyniki: wolny od uprzedzeń, liberał, typ artystyczny,  p o t w o r n i e  inteligentny. Od razu widać, że to bardzo precyzyjny system – powiedziałem Michałowi. Algorytm ustalił także – co było o wiele dziwniejsze – że nie jestem religijny, ale gdybym był, to byłbym katolikiem. Sam bym tego lepiej nie ujął – od piątego do osiemnastego roku życia uczęszczałem do szkoły katolickiej i choć mam dla religii sporo sympatii, to nie chodzę do kościoła. Komputer odgadł też, że pracuję jako dziennikarz i żywo interesuję się historią – studiowałem historię i zrobiłem magisterium z metodologii badań historycznych.

      Wszystko to wywnioskowano z facebookowych lajków, które nie mają nic wspólnego z moim pochodzeniem czy wychowaniem. „To jedna z rzeczy, których ludzie nie rozumieją na temat tych prognoz – powiedział mi Michał. – Jasne, jeśli polubisz Lady Gagę na Facebooku, to wiem, że lubisz Lady Gagę… Ale prawdziwa rewolucja polega na tym, że algorytm może wziąć twoje gusta muzyczne czy książkowe i z tych pozornie niewinnych informacji wysnuć wnioski na temat twojej religijności, potencjału przywódczego, poglądów politycznych, osobowości i tak dalej”. W rozdziale trzecim pokażę, jak partie polityczne mogą z tego korzystać w czasie wyborów. Niemniej gabinet Michała opuszczałem w poczuciu, że ten typ wnioskowania, choć szalenie interesujący, jest też nowym źródłem władzy, którą ledwo co rozumiemy, nie mówiąc o jej kontrolowaniu.

      Logicznym punktem dojścia dataizmu jest zredukowanie każdego z nas do niepowtarzalnego, przewidywalnego zlepku danych, który można zasypać spersonalizowanymi treściami. Każdy, kto próbował uciąć sobie pogawędkę z czatbotem lub komu wyświetliła się reklama czegoś, co kupił chwilę wcześniej, wie, że technologiom tym daleko do doskonałości. Ale zmierza to w oczywistym kierunku i nietrudno wyobrazić sobie mechanizmy, za sprawą których pewnego dnia każdy wasz wybór będzie poddawany seriom impulsów, czerpiących wiedzę z otaczających was zewsząd doskonale wyskalowanych algorytmów. Wyobraźcie sobie tylko! Wstajecie wcześnie, świeżuteńcy, dzięki automatycznie nastawianemu budzikowi, który zna wasz rozkład zajęć i średni czas porannej krzątaniny z uwzględnieniem typowego ruchu drogowego. Po krótkiej analizie waszych parametrów zdrowotnych – i tysięcy osób do was podobnych – algorytm zaproponuje wam śniadanie ułożone na podstawie danych, zawierające kompozycję składników odżywczych idealnie dobranych do waszych potrzeb tego dnia (bonus: niewielki rabat składki na ubezpieczenie zdrowotne, jeśli z tej propozycji skorzystacie). Wskakujecie do samochodu bezzałogowego – właśnie wrócił z nocnej zmiany, podczas której zarabiał na was jako samodzielna taksówka. Odprężacie się jazdą, a osobisty robot asystent doradza wam, co powiedzieć na zebraniu dyrektorów handlowych, opierając się na poprzednim wystąpieniu i wiedzy o tym, kto będzie obecny. Zanim samochód porwie was z powrotem do domu…

      Możliwości reklamowania są w takich warunkach ogromne – to jasne. Jeśli opuścicie się w diecie lub nawet pojawi się statystyczne prawdopodobieństwo wpadki, to wówczas – na podstawie analizy snu, jedzenia, doboru słów na Facebooku i tonu głosu – system wyświetli wam reklamę miejscowego klubu fitness. Osobisty robot asystent będzie mówić, czego potrzebujecie, dokładnie w chwili, gdy będziecie tego potrzebować, a wy nawet nie będziecie wiedzieć dlaczego.

      Przypomina to odcinek Czarnego lustra Charliego Brookera, więc łatwo zapomnieć o zaletach takiej wizji. W Demos kieruję działem, który specjalizuje się w analizie big data. W naszej pracy odkrywamy nowe sposoby rozumienia trendów społecznych, chorób, terroryzmu i wielu innych zjawisk. Dane mogą pomóc obywatelom – i pomogą – w rozliczaniu rządzących dzięki udostępnianiu wiedzy o wynikach poszczególnych ministerstw. Nie ma innego wyjścia: pewnego dnia będziemy mieć osobiste roboty, które w naszym imieniu będą rozmawiać z robotami przedsiębiorstw (o kartach kredytowych, pożyczkach na samochód, emeryturach i inwestycjach)18. Z perspektywy użytkownika to same dobre wieści.

      Niemniej cała sekwencja przebiegająca od zbierania danych przez analizę i prognozę aż po nakierowanie komunikatu stawia życie obywatela demokraty w obliczu trzech wyzwań. Po pierwsze, nasuwa się pytanie, czy ludzie wystawieni na bezustanne gromadzenie informacji oraz obserwację ze strony mediów społecznościowych mają szansę politycznie dojrzeć. Po drugie, istnieje niebezpieczeństwo, że powyższych


<p>15</p>

Najpospolitszy z nich znany jest potocznie jako „wielka piątka” i bada rozkład pięciu czynników osobowości (są nimi otwartość, sumienność, ekstrawersja, ugodowość i neurotyczność – w skrócie OCEAN, od angielskich nazw: Openness, Conscientiousness, Extraversion, AgreeablenessNeuroticism) – na podstawie odpowiedzi na standardowe pytania typu, na ile jesteś zorganizowany lub niezorganizowany.

<p>16</p>

Michal Kosinski, David Stillwell i Thore Graepel (2013), Private traits and attributes are predictable from digital records of human behaviour, „PNAS”, 110 (15), 5802–5805.

<p>17</p>

Nie ma dowodów na to, że Facebook korzysta z tych technik. (Niemniej według artykułu z „Guardiana” z maja 2017 roku australijski zespół Facebooka powiedział reklamodawcom, że umie określić, kiedy nastolatek jest zestresowany, niepewny, przybity lub zaniepokojony. Facebook odpowiedział, że nie „oferuje narzędzi pozwalających namierzać ludzi według ich stanu emocjonalnego”) [Sam Levin, Facebook told advertisers it can identify teens feeling ‘insecure’ and ‘worthless’, “Guardian”, 1 maja 2017.]

<p>18</p>

Dave Birch, Where are the customer’s bots?, <www.medium.com>, 30 grudnia 2017.