В течение нескольких недель их телефоны постоянно присылали уведомления. Приложения напоминали пить воду, советовали дедушке водить машину медленнее, а отца так настойчиво отговаривали от курения, что он в конце концов бросил. Каждое принятое ими «правильное» решение снижало страховые взносы. Казалось, что это выгодная сделка для всех. Но когда Наяна влюбилась в мужчину из менее обеспеченного района, страховые взносы семьи резко выросли. Искусственный интеллект определил, что у него более низкий социально-экономический статус, и истолковал это как потенциальный риск для семьи.
ИИ действительно может помочь оптимизировать жизнь, но в то же время способен превратить личные данные в инструмент контроля. История Наяны – тревожный пример того, как искусственный интеллект может воспроизводить существующую в обществе дискриминацию. Одним из важнейших достижений ИИ за последнее десятилетие стало глубинное обучение. Оно позволяет компьютерам прогнозировать, классифицировать данные и выявлять закономерности. Глубинное обучение используется, например, некоторым соцсетям для персонализированных рекомендаций и увеличения времени, которое пользователи проводят в сети. Анализируя каждый клик и сопоставляя данные с миллионами других пользователей, алгоритмы предсказывают, что именно может заинтересовать человека.
Глубинное обучение обладает огромным потенциалом. ИИ может обрабатывать миллионы данных и находить связи, которые недоступны человеческому восприятию. Однако у него нет интуиции, опыта и здравого смысла. Он не понимает контекста так, как это делает человек. Искусственный интеллект уязвим к предвзятости и дискриминации. В истории Наяны алгоритм не знал, что ее возлюбленный принадлежит к другой касте, а этот брак может считаться социально неприемлемым. Но, проанализировав данные о его семье и районе проживания, он интерпретировал ситуацию как потенциальную угрозу благополучию семьи Наяны.
В ближайшие годы глубинное обучение будет развиваться еще стремительнее. Вопрос о том, как сделать ИИ полезным для общества, станет одной из ключевых задач ближайшего будущего.
Глава 2
Амака был напуган. Сомнительная компания под названием Layella предложила ему, как опытному программисту, создать для них поддельное видео. Ему нужно было смонтировать ролик, в котором известный нигерийский политик признается в скандальном поступке. Если бы Амака отказался, компания пригрозила опубликовать фальшивое видео, на котором он целуется с другим мужчиной в ночном клубе.
Это грозило не только общественным осуждением, но и тюремным заключением. К 2041 году подделки станут настолько правдоподобными, что отличить их от реальности будет практически невозможно. В 2018 году в сети стало вирусным видео, где бывший президент США Барак Обама называл Дональда Трампа «полным идиотом». Однако это видео было фальшивкой.
Это был дипфейк, созданный BuzzFeed, чтобы продемонстрировать возможности технологий ИИ и предостеречь общество от безоговорочного доверия к цифровым медиа. Чтобы разработать технологию создания дипфейков, программисты сначала научили компьютеры анализировать изображения и придавать им смысл. Они вдохновлялись принципами работы человеческого мозга: зрительная кора собирает визуальную информацию, а затем неокортекс интерпретирует ее, создавая сложные образы. По аналогии разработчики создали сверточную нейронную сеть (CNN).
Конец ознакомительного фрагмента.
Текст предоставлен ООО «Литрес».
Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.