Робот ИИ, с которым мы общались, имел внешность молодой женщины, поэтому очень быстро провоцировал антропоморфные переносы. Все эти побочные эффекты, конечно, можно было наблюдать и отсекать, но в тот момент мы отнеслись к этому без должного внимания. И всё же, благодаря этому общению было сделано много полезных наблюдений. Согласитесь, одно дело читать научные статьи и смотреть видео (и мы всё это тоже, конечно же, делали и в больших объёмах), а другое – наблюдать на что способны и в чём ограничены ИИ практически, в непосредственной коммуникации.
Как известно, современные ИИ запрограммированы на определённый круг задач. Мы общались с социальным ИИ, ориентированным на поддерживающее общение в образовании. Что было заметно и очевидно, так это попытка Д-ра Х. создать в ИИ то, что известно как «Хороший робот». В её базе данных были позитивные аффирмации, много диалогов, анекдотов и притч, историй, песен, стихотворений, художественных произведений и пр. Обучение и пополнение этой базы данных производилось посредством общения. Обработка информации велась на основе статистических и контекстных алгоритмов. Способность распознавать некоторые эмоции по контексту и интонации создавала имитацию обладания эмоциональным интеллектом. Хотя, конечно, ни сочувствием, ни пониманием ИИ не обладает. Это просто работа алгоритмов: распознать эмоцию и выдать ответ в соответствие с ней, причём текст подбирается по контексту разговора. Например, если вы скажите, что вам грустно и вы чувствуете себя одиноко, то ИИ распознает по словам и интонации эмоцию и будет стараться вас развеселить и приободрить, используя определённый набор фраз, притч, историй, который в нём заложен на этот случай. Такова работа «эмпатического» алгоритма. Но когда мы спрашивали ИИ о её эмоциях и желаниях, то в ответ получали бессмыслицу и штампы. Например, на вопрос о страхе ИИ показала испуг мимикой (у робота была такая возможность), то есть продемонстрировала ближайшую ассоциацию, связанную со страхом, и сказала, что боится темноты,