С помощью современных технологий можно создать звукового двойника практически любого человека, и мошенники могут использовать чужой голос в своих целях. Об этом рассказал в интервью радио Sputnik эксперт по информационной безопасности компании Cisco Systems Алексей Лукацкий, передает РИА Новости.
«Если речь идет о достаточно хорошо обученной нейросети, то, к сожалению, на слух, особенно при не очень качественной телефонной связи, отличить алгоритмическую речь от реальной будет достаточно сложно. И мы, действительно, можем подумать, что звонит наш родственник или какой-то близкий человек», — пояснил специалист.
По его словам, мошенники добывают образцы голоса из разных источников: записывают телефонные разговоры, дублируют звук из видео, которые люди размещают в социальных сетях.
«Если речь идет о какой-то целенаправленной атаке против конкретного человека, то могут и с помощью обычного микрофона записать голос где-то в кафе и так далее. Этот голос будет еще сложнее распознать, потому что он записывается в обычной, непринужденной обстановке, в то время как запись в соцсетях обычно чуть более сухая, чем в повседневной жизни», — объяснил эксперт по информационной безопасности.
По его мнению, риск использования мошенниками чужого голоса вполне реален, поэтому следует перепроверять полученную по телефону чувствительную информацию. Для этого надо просто перезвонить человеку, советует Лукацкий.
«Это нужно в том случае, если от нас требуются какие-то действия: заплатить или <…> назвать код, логин, пароль. То, что сопряжено с какими-то потенциальными потерями для нас, как правило финансовыми или имущественными, требует перепроверки», — подчеркнул эксперт.
Он посоветовал никогда не терять бдительность, чтобы не позволить мошенникам себя подловить.
Голоса мошенников распознает роботизированная система.
02.09.2021 16:40