Они говорят голосом вашей мамы. Или сына. Или друга. Они знают, как вы общаетесь, какими словами просите помощи. И всё, что им нужно — ваш перевод на «тот самый номер» или ваши паспортные данные, чтобы взять займ до зарплаты. Добро пожаловать в мир голосовых deepfake-звонков.
В 2025 году ИИ стал не только помощником в бизнесе, но и оружием в руках мошенников. Новая реальность: ваш телефон может заговорить любым голосом. И это уже происходит каждый день.

Что такое голосовой deepfake
Как работает технология и зачем её используют
Deepfake-голос — это результат работы алгоритма синтеза речи. Мошенникам достаточно 30–60 секунд аудиозаписи, чтобы обучить модель говорить голосом жертвы или её близкого. Иногда они используют:
- сообщения из соцсетей,
- голосовые из мессенджеров,
- видео с YouTube, TikTok, Instagram.
После обучения нейросеть может «попросить денег» вашим голосом. Или голосом вашего ребёнка. Или начальника.
Технически это синтез речи на основе нейросетей, таких как Tacotron, VALL-E, ElevenLabs и другие решения, доступные в открытом доступе и даркнете.
Обычно используется в схеме:
«Алло, мама, у меня проблема, срочно переведи деньги. Я потом всё объясню. Только сейчас, пожалуйста.»
Реальные случаи: когда голос звучит как мама
Примеры звонков, где обманули эмоционально
История 1. Москва, март 2025
Женщина 56 лет перевела 270 000 рублей, думая, что говорит с дочерью.
«Я не могла не помочь. Это был её голос. Даже интонации были те же. Сказала, что попала в ДТП, нет связи — только голосовое сообщение. Я перевела сразу.»
История 2. Пермь, январь 2025
Пожилой отец получил аудио от “сына”, который якобы находился в отделении полиции.
Голос звучал уверенно, на фоне — шум участка. Оказалось, всё сгенерировано. Потеря составила 450 000 рублей.
История 3. Санкт-Петербург, апрель 2025
Мужчина получил звонок от “директора”. Голос просил перевести срочно деньги поставщику, иначе “накроется сделка”. Перевёл 1,2 млн рублей.
ИИ больше не отличается от живого человека. Особенно если вы на эмоциях, устали или просто хотите помочь.
Как защититься от таких звонков
Проверка, кодовые фразы, блокировки
Главное оружие против ИИ — ваша критичность. Даже если голос звучит родным — это не значит, что человек настоящий.
Что делать:
- Используйте кодовые фразы в семье
Договоритесь: если случится экстренная ситуация — говорим слово, которое знает только семья. Например: «пельмени», «велосипед», «Новый год».
- Никогда не переводите деньги по голосовому сообщению
Всегда требуйте видеосвязь. Deepfake-видео пока стоят дороже и сложнее в реализации.
- Используйте двухфакторную проверку
Например, звоните обратно, просите прислать фото, смс, дополнительную информацию. Мошенники часто сдаются, если им мешают.
- Блокируйте неизвестные номера и включите антиспам
Установите приложение, которое определяет подозрительные звонки: Kaspersky Who Calls, GetContact, Truecaller.
- Обучите близких
Особенно родителей и пожилых родственников. Покажите им, как звучат фальшивые сообщения. Разбейте миф: «Я бы сразу поняла». Это иллюзия.
- Не выкладывайте голосовые сообщения в открытом доступе
Это прямое топливо для генерации фейков.
Заключение
ИИ в 2025 году может звучать как вы. Или как ваши родные. Это удобно, страшно и неизбежно. Голосовой deepfake — не фантастика, а реальность.
Что важно помнить:
- Голос не подтверждает личность.
- Не торопитесь помогать, если не уверены.
- Защита — это знание и проверка.
- Кодовая фраза — простой и эффективный способ защиты.
- Близкие — ваша уязвимость и ваша зона ответственности. Предупредите их заранее.
ИИ обманывает эмоциями. Но если вы умеете ставить паузу — вы сильнее любой нейросети.