21 lekcji na XXI wiek. Yuval Noah Harari. Читать онлайн. Newlib. NEWLIB.NET

Автор: Yuval Noah Harari
Издательство: PDW
Серия:
Жанр произведения: Документальная литература
Год издания: 0
isbn: 9788308067123
Скачать книгу
tym kierowcom kazania na temat etyki – ale i tak na drodze górą będą wciąż typowe dla ssaków emocje i instynkty wyniesione z sawanny. Dlatego seminarzyści nie będą reagować na widok cierpiącego człowieka, a przeżywający jakiś kryzys kierowcy będą rozjeżdżać nieszczęsnych pieszych.

      Ta rozłączność seminarium i drogi jest jednym z największych praktycznych problemów w etyce. Immanuel Kant, John Stuart Mill i John Rawls mogą sobie siedzieć całymi dniami w przytulnej auli uniwersyteckiej i omawiać teoretyczne problemy z zakresu etyki – ale czy zestresowani kierowcy w jakiejś nagłej sytuacji, wymagającej podjęcia decyzji w ułamku sekundy, rzeczywiście wprowadzą w życie ich wnioski? Być może Michael Schumacher – mistrz Formuły 1, któremu czasami przypisuje się tytuł najlepszego kierowcy w dziejach – rozmyślał o filozofii, prowadząc samochód wyścigowy; ale większość z nas nie jest Schumacherem.

      Algorytmów komputerowych nie ukształtował jednak dobór naturalny i nie mają one ani emocji, ani pierwotnych instynktów. A zatem w sytuacji kryzysowej będą umiały stosować się do wytycznych moralnych znacznie lepiej niż ludzie – pod warunkiem, że wymyślimy sposób na zapisanie etyki za pomocą liczb i statystyk. Gdybyśmy nauczyli Kanta, Milla i Rawlsa pisać oprogramowania, mogliby w swej przytulnej pracowni starannie zaprogramować samochód autonomiczny i mieć pewność, że na autostradzie będzie trzymał się ich nakazów. W efekcie każdy samochód miałby za kierownicą Michaela Schumachera i Immanuela Kanta w jednej osobie (a ściślej: w jednym algorytmie).

      Jeśli zaprogramujemy samochód autonomiczny tak, że będzie się zatrzymywał przy cierpiącym obcym człowieku, by można było mu pomóc, to tak właśnie zrobi, choćby się paliło i waliło (o ile oczywiście w kodzie programu nie umieścimy linijki uwzględniającej wyjątek, jakim jest właśnie scenariusz, gdy się pali i wali). Podobnie jeśli nasz samochód autonomiczny zostanie zaprogramowany tak, by gwałtownie skręcić i wjechać na przeciwny pas, aby ocalić życie dwójki dzieci wbiegających mu przed maskę, to własnym życiem możemy ręczyć (i to życie stracić), że właśnie tak zrobi. Projektując samochody autonomiczne, firmy takie jak Toyota czy Tesla będą przekształcały teoretyczne problemy z dziedziny filozofii etyki na praktyczne problemy z dziedziny inżynierii oprogramowania.

      Zgoda, filozoficzne algorytmy nigdy nie będą idealne. Błędy wciąż będą się zdarzały, a ich skutkiem mogą się stać obrażenia, wypadki śmiertelne i niezwykle skomplikowane procesy sądowe. (Niewykluczone, że po raz pierwszy w dziejach można będzie pozwać filozofa za niefortunne skutki jego teorii, ponieważ po raz pierwszy będzie można dowieść bezpośredniego związku przyczynowego między ideami filozoficznymi a wydarzeniami z realnego życia). Aby jednak zastąpić ludzi za kierownicą, algorytmy nie muszą być idealne. Wystarczy, jeśli będą po prostu lepsze od ludzi. Biorąc pod uwagę, że kierowcy zabijają corocznie ponad milion osób, nie jest to aż tak trudne wyzwanie. Chyba wolelibyście, żeby za kierownicą jadącego obok was samochodu siedział zespół Schumacher–Kant, a nie pijany nastolatek?62

      Ta sama logika dotyczy także wielu innych sytuacji. Weźmy na przykład podania o pracę. W XXI wieku decyzje o tym, kogo zatrudnić na dane stanowisko, w coraz większym stopniu będą podejmowały algorytmy. By wyznaczyć odpowiednie standardy etyczne, nie możemy zdać się na maszynę – nadal będą musieli to robić ludzie. Z chwilą jednak gdy ustalimy jakiś etyczny standard na rynku pracy – na przykład że dyskryminowanie osób czarnoskórych albo kobiet jest złe – możemy zdać się na maszyny, które wprowadzą ów standard w życie i będą go utrzymywały lepiej niż ludzie63.

      Człowiek na stanowisku dyrektora może wiedzieć o tym, że dyskryminowanie osób czarnoskórych i kobiet jest rzeczą nieetyczną, a nawet może się z tym zgadzać, ale przecież gdy jedną ze starających się o pracę osób jest czarnoskóra kobieta, dyrektor podświadomie ją dyskryminuje i podejmuje decyzję, że jej nie zatrudni. Jeśli pozwolimy komputerowi oceniać podania o pracę i zaprogramujemy go tak, by zupełnie nie brał pod uwagę rasy ani płci, możemy być pewni, że maszyna rzeczywiście pominie te czynniki, ponieważ komputery nie mają podświadomości. Oczywiście nie będzie łatwo napisać program oceniający podania o pracę i zawsze istnieje niebezpieczeństwo, że tworzący go ludzie w jakiś sposób przeniosą własne podświadome uprzedzenia do software’u64. Prawdopodobnie znacznie łatwiej jednak byłoby naprawić program, w którym wykryłoby się takie błędy, niż wykorzenić z ludzi rasistowskie i mizoginiczne uprzedzenia.

      Wiemy już, że nadejście sztucznej inteligencji może wypchnąć większość ludzi z rynku pracy – w tym kierowców i policjantów z wydziałów ruchu drogowego (gdy niesfornych ludzi zastąpią posłuszne algorytmy, policja drogowa będzie niepotrzebna). Mogą się jednakże pojawić nowe miejsca pracy dla filozofów, ponieważ ich umiejętności – dotychczas pozbawione wielkiej wartości rynkowej – nagle zaczną być bardzo potrzebne. Jeśli więc chcecie studiować coś, co da wam w przyszłości gwarancję dobrej pracy, być może filozofia nie jest aż tak złym pomysłem.

      Oczywiście filozofowie rzadko się ze sobą zgadzają w kwestii wyboru właściwego kierunku działania. Niewiele „dylematów wagonika” rozwiązano w sposób, który by zadowalał wszystkich filozofów, a myśliciele konsekwencjalistyczni (którzy oceniają czyny na podstawie ich konsekwencji), tacy jak John Stuart Mill, głoszą zupełnie inne opinie niż deontologowie (którzy oceniają czyny na podstawie absolutnych reguł), tacy jak Immanuel Kant. Czy firma Tesla będzie rzeczywiście musiała zająć jakieś stanowisko w tak zawiłych kwestiach?

      Cóż, być może Tesla zostawi to po prostu decyzji rynku, uruchamiając produkcję dwóch modeli samochodów autonomicznych: Tesla Altruista i Tesla Egoista. W razie niebezpieczeństwa Altruista poświęci swego właściciela na rzecz większego dobra, podczas gdy Egoista zrobi wszystko, co w jego mocy, by właściciela ocalić – nawet jeśli będzie to oznaczało zabicie dwojga dzieci. Wówczas klienci będą mogli kupić sobie taki samochód, który będzie najbardziej odpowiadał preferowanym przez nich poglądom filozoficznym. Jeśli więcej ludzi postanowi kupić Teslę Egoistę, to nie będzie można za to winić Tesli. Przecież klient ma zawsze rację.

      To nie żart. W 2015 roku przeprowadzono pionierskie badania, w trakcie których uczestnikom przedstawiono następujący hipotetyczny scenariusz: samochód autonomiczny znalazł się w sytuacji, w której za chwilę przejedzie kilku pieszych. Większość badanych twierdziła, że samochód powinien chronić pieszych nawet za cenę śmierci swego właściciela. Gdy następnie zapytano uczestników badania, czy sami kupiliby sobie samochód zaprogramowany w taki sposób, by poświęcić właściciela w imię większego dobra, większość powiedziała, że nie. Dla siebie woleliby Teslę Egoistę65.

      Wyobraź sobie taką sytuację: kupiłaś nowy samochód, ale zanim zaczniesz go używać, musisz wejść do menu ustawień i pozaznaczać różne opcje. Czy w razie wypadku chcesz, żeby samochód poświęcił twoje życie – czy też zabił rodzinę jadącą innym pojazdem? Czy w ogóle chcesz dokonywać tego rodzaju wyborów? Pomyśl tylko, ile razy musiałabyś się kłócić z mężem o to, w co kliknąć…

      Wobec tego być może to państwo powinno interweniować i wprowadzić pewne regulacje rynkowe, ustanawiając kodeks etyczny obowiązujący wszystkie samochody autonomiczne? Niektórzy ustawodawcy bez wątpienia byliby zachwyceni taką możliwością: wreszcie mogliby ustanawiać prawa, które byłyby z a w s z e i co do joty przestrzegane. Dla innych tak niespotykana i totalitarna odpowiedzialność może być przerażająca. Przecież w całej historii to właśnie ograniczona możliwość egzekwowania prawa zapewniała pożądaną przeszkodę dla szerzenia uprzedzeń, błędów i nadużyć prawodawców. Mieliśmy wyjątkowo dużo szczęścia, że


<p>62</p>

K.D. Kusano, H.C. Gabler, Safety Benefits of Forward Collision Warning, Brake Assist, and Autonomous Braking Systems in Rear-End Collisions, „IEEE Transactions on Intelligent Transportation Systems” 2012, nr 13(4), s. 1546–1555; J.M. Anderson et al., Autonomous Vehicle Technology. A Guide for Policymakers, Santa Monica 2014, zwł. s. 13–15; D.J. Fagnant, K. Kockelman, Preparing a Nation for Autonomous Vehicles. Opportunities, Barriers and Policy Recommendations, „Transportation Research Part A: Policy and Practice” 2015, nr 77, s. 167–181.

<p>63</p>

T. Adams, Job Hunting Is a Matter of Big Data, Not How You Perform at an Interview, „Guardian”, 10 maja 2014, https://www.theguardian.com/technology/2014/may/10/job-hunting-big-data-interview-algorithms-employees (dostęp: 6 września 2017).

<p>64</p>

Wyjątkowo wnikliwe omówienie: C. O’Neil, Broń matematycznej zagłady. Jak algorytmy zwiększają nierówności i zagrażają demokracji, przeł. M.Z. Zieliński, Warszawa 2017. Jest to naprawdę lektura obowiązkowa dla każdego, kogo interesuje potencjalny wpływ algorytmów na społeczeństwo i politykę.

<p>65</p>

J.-F. Bonnefon, I. Rahwan, A. Shariff, The Social Dilemma of Autonomous Vehicles, „Science” 2016, nr 24(352), s. 1573–1576.