Кажется, многие сегодня начинают догадываться о конечных целях реализуемых в разных странах цифровых проектов под кодовым названием «Всевидящее око». В какой-то момент времени все эти страновые цифровые проекты, по замыслу «Большого Брата», должны стать единым глобальным проектом наблюдения и контроля над населением Земли.
Конечно, семимильными шагами к созданию национального «Всевидящего ока» двигается Китай. США несколько отстают от Китая. Ещё на шаг от Соединенных Штатов Америки отстает Европа. Мало того, что она отстает. Она, кажется, не желает доводить до финала проект «Всевидящего ока». Может быть, в Европе срабатывает историческая память и европейские политики уловили некоторые параллели между сегодняшним проектом «Всевидящего ока» и концлагерями Дахау, Освенцим и Бухенвальд времен Второй мировой войны? – Не знаю. Но то, что Европа нажала на тормоз и пытается не допустить, чтобы «Всевидящее око» зависло над Европейским союзом, – факт.
15 апреля 2021 года стало известно о том, что Европейский парламент готовит поправки в законодательство, запрещающие применение искусственного интеллекта (ИИ) для массового видеонаблюдения за людьми и оценки социального поведения. Исключение составляют системы военного назначения. Системы удаленной биометрической идентификации в общественных местах (например, системы распознавания лиц) смогут внедряться только с согласия властей и в рамках закона.
В Европейском совете за развитие систем видеонаблюдения и распознавания, биометрию и сопряженные с ними вопросы искусственного интеллекта отвечают два регулятора – Европейский надзорный орган по защите данных – EDPS (European Data Protection Supervisor) и Европейский совет по защите данных – E DPB (The European Data Protection Board).
В прошлом месяце EDPS и EDPB опубликовали совместный отчет, посвященный биометрическим системам на базе искусственного интеллекта. Это был своеобразный ответ на проект Регламента по искусственному интеллекту, обнародованный в апреле 2021 года Европейской комиссией (ЕК). В тексте проекта Регламента содержатся многочисленные предупреждения о тех рисках, которые может создавать неконтролируемое использование систем ИИ в разных сферах как для общества в целом, так и для отдельных социальных групп и отдельно взятого человека. Рекомендация Регламента: началу реализации любого проекта ИИ должна предшествовать глубокая оценка возможных рисков. И даже после запуска проекта необходимо продолжать мониторинг рисков (один из самых серьёзных