Мошенники научились подделывать голоса и даже образы людей, чтобы украсть деньги, жертвами такой схемы могут стать пожилые люди, рассказал эксперт направления информационной безопасности Центра цифровой экспертизы Роскачества Сергей Кузьменко «Прайму».
Для обмана мошенники используют нейросети с машинным обучением на основе искусственного интеллекта. Чтобы создать «клон голоса» любого человека, аферистам достаточно получить 20-секундный фрагмент с разговором из социальной сети.
«Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота», — предупредил специалист.
Схема работает просто: человеку поступает звонок от родственника, который срочно просит деньги (например, на возмещение ущерба в результате ДТП). Только разговаривает на самом деле нейросеть.
Более того, мошенники научились подделывать образ. Искусственный интеллект позволяет наложить ненастоящие изображение или видео на реальные, эта технология называется «дипфейк».
Волна дипфейков, по словам эксперта Кузьменко, уже захлестнула Юго-Восточную Азию и Африку, а в ближайшее время дойдет до России. Тогда она будет распространяться как звонки от «родственников», и опасаться обмана стоит пожилым людям.
Как защититься
Специалист советует всегда перезванивать родным и знакомым, от лица которых поступила просьба о деньгах. Можно также придумать кодовое слово, по которому вы сможете отличить близкого человека от мошенника.
Чтобы распознать дипфейк, специалист советует обращать внимание на неестественную мимику человека на видео, низкое разрешение ролика и нечеткость изображения. Звук в таких видео может опережать картинку или не успевать за движениями.
Комментарии