Атаки на искусственный интеллект (ИИ) бывают трех уровней, однако самая простая — использование фотографии, маски или грима, а также записи голоса. Об этом в интервью «Коммерсанту» сообщил директор по цифровой идентичности «Ростелекома» Иван Беров.
«Атаки делятся на три уровня. Самая простая — использование фотографии, маски или грима, а также записи голоса. При распознавании биометрии система получает видеозапись, на которой пользователь, глядя в камеру, произносит сгенерированную случайным образом последовательность чисел. Она отслеживает правильность произнесения чисел, мимику лица и губ, освещенность и другие параметры и детектирует подделку», — отметил Беров.
Атаки второго уровня сложности, по словам эксперта, связаны с синтезом речи и наложением изображения лица. «Если используется морфинг (компьютерная анимация), то при наложении одного изображения на другое набор опорных точек смещается, лицо как бы плывет, и машина это видит. С такими атаками система справляется легко», — пояснил директор по цифровой идентичности «Ростелекома».
Беров уточнил, что самый сложный тип атаки — когда нейросеть полностью эмулирует лицо и голос, это так называемые дипфейки. «Но какой бы ни был искусный дипфейк, злоумышленнику надо «показать» его камере и микрофону, ведь это компьютерная программа и ее нельзя просто отправить в защищенную систему в виде файла. Именно этот факт определяется и пресекается. Мы используем несколько технологий ИИ, которые принимают решение о том, живой ли человек перед камерой или это его компьютерная копия», — заключил он.
Вступающие в силу с 1 января 2022 года поправки к 479-ФЗ, которым в настоящее время регулируются сбор и использование биометрии физических лиц в России, оставляют российским компаниям три варианта использования биометрической идентификации в своих продуктах и услугах, один из которых — полный отказ от процедуры. Об этом «Коммерсанту» рассказала директор по стратегическим проектам Института исследований Интернета Ирина Левова.
10.12.2021 11:39