Поначалу обработка естественного языка в пользовательских устройствах впечатляла, особенно по сравнению с недавним прошлым, но обнаружились ее ограничения. ИИ хорошо понимает только элементарные и короткие предложения и команды. Попробуйте поговорить с ним, как с обычным человеком, – и он сразу запутается.
По человеческим меркам нынешний ИИ – младенец. А если говорить на языке науки, ему не хватает данных. Но он быстро растет, например благодаря технологии Google Duplex. Она поддержит и довольно неформальную беседу, потому что обучена для конкретных ситуаций, и алгоритмы собирают только касающиеся этих событий данные. Google демонстрирует прогресс Duplex на примере записи в парикмахерскую по телефону[24]. В таких узких и контролируемых случаях технология ведет себя почти по-человечески. Для этого инженеры Google запрограммировали свойственные нашей речи междометия: машина вставляет в разговор «эм-м», «ах» и «угу», когда сочтет это уместным.
Компьютер можно научить говорить на одном языке, а любой другой он освоит сам с помощью машинного обучения. По этому принципу работает переводчик Google, раскладывая язык на основные составляющие. Глубокие нейронные сети Google Translate постоянно оттачивают алгоритмы, изучая новые языки, и так совершенствуются в точности переводов. Google внедрила эту функцию в наушники Pixel Buds на базе Google Assistant, и пользователи могут слушать трансляцию перевода почти в режиме реального времени[25].
У Waymo – подразделения Alphabet, которое разрабатывает беспилотные автомобили, – одна из самых развитых платформ в мире. Недавно компания стала первым коммерческим перевозчиком[26].
Alphabet пошел еще дальше: автомобили полностью автоматизированы, в них даже нет руля и педалей. Они созданы для новой урбанистической эпохи, в которую быть владельцем автомобиля – дорого и неудобно. Сервис Waymo ориентирован на частный извоз: по прогнозам компании, такой формат будет основным в умных городах будущего.
В машинном обучении Google использует алгоритмы естественного языка, когда автоматически записываются субтитры для слабослышащих (или предпочитающих тишину) людей на сервисе потокового видео YouTube. Как и с речью, для идентификации звуков (аплодисментов, музыки) система использует глубокие нейронные сети и автоматически выводит текст: он сообщает зрителю, что происходит[27].
Технология ИИ Alphabet (в частности на базе глубокого обучения) широко применяется в медицине. Из недавних новшеств стоит упомянуть офтальмологическую диагностику. Для обучения алгоритмов используются снимки оптической когерентной томографии – инфракрасные 3D-изображения глазного яблока[28]. Система основана на двух алгоритмах глубокого обучения. Один строит подробную схему устройства глаза и определяет, что нормально, а что может быть симптомом болезни, например возрастной