21 урок для XXI века. Юваль Ной Харари. Читать онлайн. Newlib. NEWLIB.NET

Автор: Юваль Ной Харари
Издательство: Издательство «Синдбад»
Серия:
Жанр произведения: Прочая образовательная литература
Год издания: 2018
isbn:
Скачать книгу
понимает этот алгоритм, потому что он основан на самом современном машинном обучении. Но мы верим ему и не выдадим вам кредит»[72].

      Когда ущемляют права целых групп людей, например женщин или чернокожих, они способны организовать протест против коллективной дискриминации. Но если алгоритм дискриминирует лично вас, вы даже не поймете, в чем причина этого. Возможно, алгоритму что-то не понравилось в вашей ДНК, в вашей биографии или на вашей странице в Facebook. Алгоритм дискриминирует вас не потому, что вы женщина или афроамериканец, а потому что вы – это вы. В вас есть нечто такое, что его не устроило. Вы не знаете, что именно, и даже если бы знали, то не смогли бы вместе с другими людьми устроить акцию протеста, потому что больше никто не пострадал от этого же предрассудка. Вы такой один. В XXI веке коллективная дискриминация может смениться индивидуальной[73].

      В высших эшелонах власти у нас, скорее всего, останутся люди, номинальные правители, которые будут поддерживать иллюзию, что алгоритмы лишь советники, а верховная власть по-прежнему в руках людей. Мы не станем назначать искусственный интеллект канцлером Германии или гендиректором Google. Но решения, принимаемые и канцлером, и главой корпорации, будет диктовать искусственный интеллект. У канцлера будет выбор из нескольких вариантов, но все они станут результатом анализа больших данных и будут отражать то, как видит мир искусственный интеллект, а не люди.

      Приведем такой пример. Сегодня политики во всем мире вольны выбирать ту или иную экономическую стратегию, но почти во всех случаях ее варианты отражают капиталистический взгляд на экономику. У политиков сохраняется иллюзия выбора, но по-настоящему важные решения уже были приняты гораздо раньше – экономистами, банкирами и бизнесменами, которые сформулировали пункты меню. Через несколько десятилетий политики вдруг обнаружат, что выбирают из списка, составленного искусственным интеллектом.

      Искусственный интеллект и естественная глупость

      Хорошая новость состоит в том, что, по крайней мере, в ближайшие десятилетия нам не придется иметь дело с полноценным научно-фантастическим кошмаром, в котором искусственный интеллект обретает разум и решает поработить или уничтожить людей. В процессе принятия решений мы все больше будем полагаться на алгоритмы, но сценарий, при котором алгоритмы начнут сознательно манипулировать нами, маловероятен. У них не возникнет сознание.

      Научная фантастика обычно путает интеллект с сознанием и предполагает, что для того, чтобы сравняться с человеческим интеллектом или превзойти его, компьютеры должны обладать сознанием. Сюжет почти всех фильмов и романов об искусственном интеллекте вращается вокруг того волшебного момента, когда у компьютера или робота появляется сознание. Затем или главный герой влюбляется в робота, или робот пытается уничтожить человечество, или то и другое происходит одновременно.

      Но в реальности нет


<p>72</p>

O’Neil, Weapons of Math Destruction, цитируемая работа; Penny Crosman, ‘Can AI Be Programmed to Make Fair Lending Decisions?’, American Banker, 27 September 2016, https://www.americanbanker.com/news/can-ai-be-programmed-to-make-fair-lending-decisions, ссылка актуальна на 17 September 2017.

<p>73</p>

Matt Reynolds, ‘Bias Test to Prevent Algorithms Discriminating Unfairly’, New Scientist, 29 May 2017, https://www.newscientist.com/article/mg23431195–300-bias-test-to-prevent-algorithms-discriminating-unfairly/, ссылка актуальна на 17 September 2017; Claire Cain Miller, ‘When Algorithms Discriminate’, New York Times, 9 July 2015, https://www.nytimes.com/2015/07/10/upshot/when-algorithms-discriminate.html, ссылка актуальна на 17 September 2017; Hannah Devlin, ‘Discrimination by Algorithm: Scientists Devise Test to Detect AI Bias’, Guardian, 19 December 2016, https://www.theguardian.com/technology/2016/dec/19/discrimination-by-algorithm-scientists-devise-test-to-detect-ai-bias, ссылка актуальна на 17 September 2017.