21 lekcji na XXI wiek. Yuval Noah Harari. Читать онлайн. Newlib. NEWLIB.NET

Автор: Yuval Noah Harari
Издательство: PDW
Серия:
Жанр произведения: Документальная литература
Год издания: 0
isbn: 9788308067123
Скачать книгу
jako Ydbachhum! (co znaczy „Krzywdź ich!”). Podejrzewając, że ów człowiek może być terrorystą i zamierza użyć w ataku spychacza, izraelskie siły bezpieczeństwa szybko go aresztowały. Gdy zdano sobie sprawę, że algorytm popełnił błąd, niesłusznie podejrzanego mężczyznę zwolniono. Jednak kłopotliwy post na Facebooku został mimo to usunięty. Ostrożności nigdy za wiele72. To, czego zaznają dzisiaj Palestyńczycy na Zachodnim Brzegu, może być zaledwie zapowiedzią tego, czego będą ostatecznie doświadczać miliardy ludzi na całym świecie.

      Pod koniec XX wieku państwa demokratyczne zazwyczaj zostawiały w tyle dyktatury, ponieważ były lepsze w przetwarzaniu danych. Demokracja rozprasza władzę przetwarzania informacji i podejmowania decyzji na wielu ludzi i wiele instytucji, podczas gdy dyktatura skupia informacje i władzę w jednym miejscu. Biorąc pod uwagę, jaką techniką dysponowano w XX wieku, to ostatnie rozwiązanie było całkowicie nieskuteczne. Nikt nie miał możliwości wystarczająco szybkiego przetwarzania wszystkich tych informacji oraz dokonywania właściwych wyborów. Jest to jeden z powodów, dla których Związek Sowiecki podejmował dużo gorsze decyzje niż Stany Zjednoczone, a sowiecka gospodarka była nieporównywalnie słabsza.

      Niebawem jednak sztuczna inteligencja może diametralnie zmienić sytuację. SI umożliwia centralne przetwarzanie ogromnych ilości informacji. Co więcej, może ona sprawić, że scentralizowane systemy będą znacznie skuteczniejsze niż systemy rozproszone, ponieważ uczenie maszynowe działa tym lepiej, im więcej informacji może analizować. Jeśli skupia się w jednej bazie danych wszystkie informacje odnoszące się do miliarda ludzi, nie biorąc pod uwagę żadnych kwestii związanych z poszanowaniem prywatności, można znacznie lepiej szkolić algorytmy niż wówczas, gdy szanuje się prawo do prywatności i ma się w bazie danych jedynie częściowe informacje na temat miliona ludzi. Gdyby na przykład jakiś despotyczny rząd nakazał swoim obywatelom zbadanie swojego DNA oraz udostępnienie wszystkich danych medycznych jakiejś centralnej instytucji, zyskałby ogromną przewagę w genetyce i badaniach medycznych nad społeczeństwami, w których dane medyczne są sprawą ściśle prywatną. Główny mankament autorytarnych reżimów w XX wieku – próba skupienia wszystkich informacji w jednym miejscu – mógłby się stać ich decydującym atutem w XXI wieku.

      Gdyby algorytmy znały nas tak dobrze, autorytarne rządy mogłyby zyskać absolutną władzę nad swymi obywatelami, większą nawet niż w nazistowskich Niemczech, a opór wobec takich reżimów mógłby być całkowicie niemożliwy. Taki reżim nie tylko wiedziałby dokładnie, co każdy z nas czuje, lecz także mógłby sprawić, że nasze uczucia byłyby zgodne z tym, czego chcą władze. Dyktatorzy być może nie byliby w stanie zapewnić swym obywatelom opieki zdrowotnej i równości, ale mogliby sprawić, że poddani by ich kochali – i nienawidzili ich przeciwników. Demokracja w swej obecnej postaci może nie przetrwać rewolucji biotechnologicznej i technologii informacyjnej. Albo demokracja skutecznie znajdzie na siebie inny pomysł i przybierze radykalnie nową postać, albo ludzie zaczną żyć w „cyfrowych dyktaturach”.

      Nie będzie to powrót do czasów Hitlera i Stalina. Cyfrowe dyktatury będą się różnić od nazistowskich Niemiec tak bardzo, jak nazistowskie Niemcy różniły się od Francji z okresu ancien régime’u. Ludwik XIV był despotą i zwolennikiem centralizmu, nie miał jednak środków technicznych, które pozwoliłyby mu stworzyć nowoczesne państwo totalitarne. Nikt nie sprzeciwiał się jego panowaniu, jednak wobec braku radia, telefonu i kolei żelaznej miał niewielką kontrolę nad codziennym życiem chłopów w odległych bretońskich wioskach, a nawet mieszczan w samym sercu Paryża. Nie miał ani woli, ani zdolności, by zakładać jakąś masową partię, tworzyć ogólnokrajowy ruch młodzieżowy czy ustanawiać państwowy system edukacji73. Tym, co Hitlerowi dało zarówno motywację, jak i dodatkowe możliwości, były nowe technologie XX wieku. Nie jesteśmy w stanie przewidzieć, jakie będą motywacje i możliwości cyfrowych dyktatur w 2084 roku, ale jest bardzo mało prawdopodobne, by po prostu kopiowały dzieło Hitlera i Stalina. Tych, którzy sądzą, że przyjdzie im toczyć bitwy takie jak te z lat trzydziestych, może zaskoczyć atak z całkiem innej strony.

      Nawet gdyby demokracji udało się przystosować i przetrwać, mogą się w niej pojawić nowe formy ucisku i dyskryminacji. Już dzisiaj coraz więcej banków, korporacji i instytucji używa algorytmów do analizowania danych oraz podejmowania decyzji, które nas dotyczą. Gdy starasz się o pożyczkę w banku, może się zdarzyć, że twój wniosek rozpatrzy algorytm, a nie człowiek. Algorytm analizuje mnóstwo danych na twój temat oraz statystyki dotyczące milionów innych ludzi, po czym decyduje, czy jesteś wystarczająco wiarygodna, by bank udzielił ci pożyczki. Często algorytm spisuje się lepiej niż bankier. Problem polega jednak na tym, że jeśli algorytm dyskryminuje pewnych ludzi, traktując ich niesprawiedliwie, trudno w ogóle to stwierdzić. Jeśli bank odmówi udzielenia ci pożyczki, a ty zapytasz: „Dlaczego?”, usłyszysz w odpowiedzi, że to algorytm nie wyraził zgody. Spytasz: „Dlaczego algorytm się nie zgadza? Co jest ze mną nie tak?”, a bank odpowie: „Nie wiemy. Żaden człowiek nie rozumie tego algorytmu, ponieważ opiera się on na zaawansowanym uczeniu maszynowym. Ale ufamy swemu algorytmowi, dlatego nie udzielimy pani pożyczki”74.

      Gdy dyskryminowane są całe grupy, na przykład kobiety albo czarnoskórzy, mogą się zorganizować i przeciwko temu protestować. Teraz jednak algorytm może dyskryminować ciebie osobiście, a ty nie będziesz miała pojęcia, dlaczego tak się dzieje. Być może w twoim DNA albo w twojej osobistej historii na facebookowym profilu algorytm znalazł coś, co mu się nie podoba. Algorytm dyskryminuje cię nie dlatego, że jesteś kobietą albo Afroamerykanką – ale dlatego, że jesteś sobą. Jest w tobie coś, co nie podoba się algorytmowi – jakaś konkretna rzecz. Nie wiesz, co to takiego, a nawet gdybyś wiedziała, nie mogłabyś zorganizować wspólnego protestu z innymi ludźmi, ponieważ nie ma nikogo, kto padłby ofiarą uprzedzenia dokładnie z tego samego powodu. Jesteś tylko ty. Zamiast zwykłej zbiorowej dyskryminacji w XXI wieku możemy stanąć w obliczu narastającego problemu dyskryminacji indywidualnej75.

      Prawdopodobnie na najwyższych szczeblach władzy mimo wszystko pozostawimy ludzi: będą to figuranci dający nam złudzenie, że algorytmy są tylko doradcami, a najwyższa władza wciąż znajduje się w ludzkich rękach. Nie będziemy mianowali sztucznej inteligencji kanclerzem Niemiec ani dyrektorem generalnym Google’a. Jednakże decyzje podejmowane przez kanclerza i dyrektora generalnego będzie kształtowała SI. Kanclerz nadal będzie mógł wybierać między różnymi możliwościami czy scenariuszami działań, ale wszystkie te opcje będą wynikiem analizy big data i będą bardziej odzwierciedleniem tego, jak widzi świat sztuczna inteligencja, niż jak patrzą na niego ludzie.

      By podać analogiczny przykład: dzisiaj politycy na całym świecie mogą wybierać spośród wielu różnych wariantów polityki gospodarczej, ale niemal we wszystkich wypadkach te rozmaite jej odmiany znajdujące się w ofercie stanowią odzwierciedlenie kapitalistycznego poglądu na ekonomię. Politycy mają złudzenie wyboru, ale naprawdę ważne decyzje zostały podjęte dużo wcześniej przez ekonomistów, bankierów i przedsiębiorców, którzy określili te różne opcje w menu. W ciągu paru dziesięcioleci politycy mogą znaleźć się w sytuacji, gdy będą wybierali z menu napisanego dla nich przez SI.

Sztuczna inteligencja i naturalna głupota

      Dobra wiadomość jest taka, że przynajmniej w ciągu najbliższych paru dziesięcioleci nie będziemy jeszcze mieli do czynienia z prawdziwym koszmarem rodem z science fiction, kiedy to sztuczna inteligencja zyskałaby świadomość i decydowała o tym, czy ludzkość zniewolić, czy zmieść z powierzchni ziemi. Będziemy coraz bardziej polegać na algorytmach, które będą podejmowały za nas decyzje, jest jednak mało prawdopodobne, by zaczęły świadomie nami manipulować. Nie będą miały żadnej świadomości.

      Science


<p>72</p>

Y. Berger, Police Arrested a Palestinian Based on an Erroneous Translation of „Good Morning” in His Facebook Page, „Haaretz”, 22 października 2017, https://www.haaretz.co.il/.premium-1.4528980 (dostęp: 12 stycznia 2018).

<p>73</p>

W. Beik, Louis XIV and Absolutism. A Brief Study with Documents, Boston, MA 2000.

<p>74</p>

C. O’Neil, Broń matematycznej zagłady, op. cit.; P. Crosman, Can AI Be Programmed to Make Fair Lending Decisions?, „American Banker”, 27 września 2016, https://www.americanbanker.com/news/can-ai-be-programmed-to-make-fair-lending-decisions (dostęp: 17 września 2017).

<p>75</p>

M. Reynolds, Bias Test to Prevent Algorithms Discriminating Unfairly, „New Scientist”, 29 maja 2017, https://www.newscientist.com/article/mg23431195-300-bias-test-to-prevent-algorithms-discriminating-unfairly/ (dostęp: 17 września 2017); C. Cain Miller, When Algorithms Discriminate, „New York Times”, 9 lipca 2015, https://www.nytimes.com/2015/07/10/upshot/when-algorithms-discriminate.html (dostęp: 17 września 2017); H. Devlin, Discrimination by Algorithm. Scientists Devise Test to Detect AI Bias, „Guardian”, 19 grudnia 2016, https://www.theguardian.com/technology/2016/dec/19/discrimination-by-algorithm-scientists-devise-test-to-detect-ai-bias (dostęp: 17 września 2017).