Дипфейк-революция: как ИИ крадёт вашу личность
ИИ генерит фейковых звёзд
Классический случай: пенсионерка в Перми лишилась накопленных 500 тыс. рублей, пообщавшись по видеозвонку со «знаменитостью». Та убедила пожилую женщину «спасти» свои сбережения, переведя деньги на другой счёт. И конечно же, медийную персону с помощью нейросетей сгенерировали мошенники. Таких случаев по всей стране — сотни в день.
Столица не отстаёт. Сегодня половина всех преступлений в Москве — это мошенничество, связанное с информационными технологиями и телефонными звонками. На днях мэр Москвы Сергей Собянин предупредил о распространении дипфейков с его изображением и голосом. «Если у вас Сергей Семенович вдруг начинает интересоваться продажей вашей квартиры, номерами счетов, выключайте свой телефон немедленно, звоните в полицию и сообщайте об этом», — сказал он.
Сегодня для работы с дипфейками не нужно нанимать много разработчиков и приобретать дорогостоящее оборудование, поэтому порог входа в эту «индустрию» не такой высокий, как многие думают. ИИ-алгоритмы существенно упростили массовую разработку дипфейков. Сейчас для создания аудио- или видеофейка достаточно получить исходную запись продолжительностью в несколько секунд.
Во многом из-за доступности в производстве растёт их количество: по прогнозам экспертов АНО «Диалог Регионы», в России в 2025 году количество дипфейков в пять раз превысит показатели прошлого года.
«Существующие алгоритмы могут выявлять отдельные артефакты сгенерированного контента, но универсальных решений, которые определяют дипфейки высокого качества за короткое время, пока нет», — рассказал руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов. Ситуацию осложняют разнообразные искажения — фильтры, маски, улучшение голоса и др. Например, ПО для выявления фейков выдаст ложное срабатывание при анализе видеосообщения, в котором человек поёт под фонограмму, хотя само видео фейком может не являться.
Говоря о создании фейковых цифровых персон, нельзя забывать о том, что при помощи нейросетей сегодня генерируется не только видео, но и голос. Основатель Telegram-канала Baza Анатолий Сулейманов рекомендует при определении достоверности видео обращать внимание на зону, ограниченную носогубными складками. «Часто ИИ переозвучивает персонажей и вкладывает в уста другой смысл. Поэтому за время работы появились и свои лайфхаки. К примеру, если спикер побрит, различить, фейк это или нет, довольно сложно — нейросеть уже научилась воспроизводить движения губ довольно реалистично. А вот если человек не побрит, у него борода, то видно, что его губы двигаются неестественно — ходят ходуном», — рассказал он, выступая на SOC-форуме 2025.
Атаки становятся сложнее
В мире, по оценкам компании Sumsub, в 2025 году уровень мошенничества с идентификацией в целом немного снизился — 2,2% от всех проанализированных проверок, в 2024 году — 2,6%. При этом количество наиболее продвинутых схем выросло на 180%. Аналитики назвали эту тенденцию «сдвигом в сторону усложнения» — мошенничество переходит от массового шумового фона к меньшему числу атак, зато они стали точнее и разрушительнее. Каждая успешная попытка мошенничества теперь означает тщательную подготовку, более высокие затраты и долгосрочные последствия как для жертв, так и для организаций, считают в Sumsub.
«Сложное мошенничество», как отмечает Sumsub, — это атаки, которые объединяют несколько согласованных техник. Например, использование генеративных синтетических личностей, многоуровневое социальное проектирование, подделку устройств или телеметрии. В отличие от более простых схем мошенничества, которые опираются на один метод, эти сложные атаки гораздо труднее обнаружить и сдержать.
«Угроза сместилась от количества к качеству, и устойчивость теперь зависит от того, насколько быстро организации могут обнаруживать аномалии, анализировать поведенческие данные и адаптировать свою защиту к возникающим угрозам в реальном времени», — говорит руководитель направления AI/ML в Sumsub Павел Голдман-Калайдин. Пока что зрелость ID-программ и строгость регулирования не находят отражения в реальной повседневной цифровой инфраструктуре. Например, в Европе 37% компаний полагаются на ручные процессы предотвращения мошенничества.
Вице-президент по продажам Sumsub Джейкоб Томпсон также указал на разрыв между осведомлённостью и действиями. «Почти три из пяти европейских потребителей стали жертвами мошенничества в 2025 году. Сейчас наиболее заметный сдвиг связан не с тем, сколько мошенничества существует, а с тем, насколько оно эффективно», — сказал он.
В России в 2025 году, по данным опроса аналитического центра НАФИ, 72% респондентов хотя бы раз сталкивались с дипфейками, ещё 21% сообщили, что регулярно видят такой контент. При этом знакомы со значением этого термина только 31%. Некоторые ошибочно называют эту технологию ботом, видеомонтажом, карикатурой. Низкий уровень осведомлённости означает, что большое число пользователей могут не обратить внимание даже на маркировку контента, содержащего дипфейки, и не распознать предупреждение, считают в НАФИ.
В любовной переписке с дипфейком
Sumsub использует понятие «мошенничество от первого лица», когда человек обманывает, не скрывая свою личность. Другой тип мошенничества — от третьего лица, когда злоумышленники захватывают чужие аккаунты или выдают себя за своих жертв.
В 2025 году наиболее распространённым видом мошенничества от первого лица стало использование синтетических личностей. Доля таких случаев от всего числа выявленных мошенничеств составила 21%. На втором месте — злоупотребление чарджбэками — 16%. На третьем — мошенничество при подаче заявок (14%). Также в число популярных схем вошли мошенничество с дипфейками и money mulling — предоставление своего банковского счёта для перемещения украденных денег (по 11% у каждой из этих схем).
Распространённым видом мошенничества от третьего лица стала кража личности — 28%, за ней следовали захват аккаунта (18%) и проверка карт (17%). Последняя схема предполагает, что мошенники прогоняют (тестируют) украденные или сгенерированные номера банковских карт через мелкие транзакции, чтобы проверить, какие карты проводят оплату, затем эти «живые» карты используются в более крупном мошенничестве. Фишинг и атаки с применением социальной инженерии составили 16% случаев мошенничества от третьего лица, а атаки с использованием ботов — 12%.
Больше всего от мошенничества, связанного с идентификацией, пострадали сервисы знакомств и онлайн-медиа. На них в 2025 году пришлось по 6,3% от всех случаев мошенничества в мире.
При этом в схемах, когда злоумышленник строит с жертвой «романтические отношения», например на сайтах знакомств, часто использовались ИИ-персоны и дипфейки. Цель — шантаж и вымогательство денег с использованием компрометирующих или сгенерированных изображений.
Две из четырёх крупнейших в мире ИИ-моделей для генерации изображений позволяют пользователям создавать дипфейки откровенного содержания практически без ограничений, рассказала заместитель директора по продуктам VisionLabs Татьяна Дешкина.
С этим справляются китайский Qwen Image и Grok Илона Маска. Обе доступны пользователям совершенно бесплатно. Кроме того, открытые модели можно дообучить под любую задачу, в том числе для целенаправленной генерации откровенного контента, «скормив» им достаточный объём данных. Модель можно настроить так, что, загрузив снимок любого человека, нейросеть «разденет» его. Злоумышленники используют такие дипфейки откровенного содержания для шантажа и вымогательства денег. Наиболее уязвимы женщины и подростки.
Сегодня в Telegram доступны десятки ботов, в которые можно загрузить фотографии любого человека, и они создадут с ним дипфейк откровенного содержания. Происхождение этих ботов неизвестно. Часть из них требует оплатить подписку, что, кстати, может привести к утечке данных пользователей, решивших поэкспериментировать с технологией.
Сколько стоит дипфейк
Финансовые услуги, криптовалютные сервисы и профессиональные услуги также столкнулись с высоким уровнем мошенничества, связанного с идентификацией, — 2,7%, 2,2% и 1,6% соответственно. В сфере профессиональных услуг зафиксирован рост на 232% в годовом выражении.
«Мошенники атаковали юридические, консалтинговые и бухгалтерские фирмы из-за чувствительных клиентских данных и зависимости от ручного онбординга», — отмечают в Sumsub.
В основном в 2025 году мошенники подделывали или имитировали удостоверения личности — на них пришлось 72% всех поддельных документов, на втором месте по популярности у злоумышленников поддельные паспорта (13%), на третьем — водительские удостоверения (10%).
«Цель любого дипфейка — это человек. Чаще всего с помощью дипфейков пытаются атаковать топ-менеджеров и сотрудников финансовых, юридических отделов, департаментов полиции работе с персоналом, партнёрами и клиентами», — говорит Максим Бузинов.
Если цель — топ-менеджмент, то тут своя стратегия. Для атаки на людей, принимающих решения, используется таргетированный фишинг, который требует тщательной проработки контента и деталей, которые вызовут доверие у жертвы, отмечает эксперт. Это необходимо, чтобы в ходе звонка или ВКС склонить человека к нужным действиям: вывести деньги «доверенному» лицу, на специальный счёт или в иностранную юрисдикцию.
«Для таких таргетированных нападений в прошлом году мошенники могли потратить не менее 1–1,5 млн рублей на одну атаку (аренда серверов в ЦОДе, команда дата-сайентистов, ПО для создания фейка). И эти суммы окупались в случае успеха. Но такие атаки не могут быть массовыми, так как ориентированы на конкретного человека, его окружение и требуют проработки всех нюансов», — говорит Максим Бузинов.
Поэтому дипфейки касаются абсолютно всех — от топ-менеджеров до пенсионеров. И если до появления ИИ люди принимали увиденное за истину: «Вижу — значит, существует», то сегодня необходимо принять за правило: «Перепроверить, чтобы поверить».
