Термин «deepfake» является производным от английских слов «deep learning» (глубокое обучение) и «fake» (подделка).
По своей сути, deepfake – это метод синтеза или манипуляции аудиовизуальным контентом, который основывается на передовых алгоритмах машинного обучения и искусственного интеллекта.
Нейронные сети, обученные на огромных массивах данных, генерируют или изменяют изображения и звуки с высокой степенью реализма, позволяя подменять лицо, мимику, жесты и голос в видео или на звуковой дорожке.
Технология Deepfake, позволяющая с помощью искусственного интеллекта (ИИ) создавать практически неотличимые от реальности, но полностью сфабрикованные видео- и аудиоматериалы, стремительно превращается из технологической новинки в серьезный инструмент для совершения противоправных деяний.
Суть технологии заключается в синтезе или наложении фрагментов контента – будь то лицо, мимика, жесты или голос – на существующее изображение или аудиодорожку, либо в генерации абсолютно нового контента, имитирующего реального человека. Важно понимать, что это не просто усовершенствованный фотомонтаж- речь идет о динамическом и зачастую пугающе реалистичном манипулировании медиаданными.
Особую тревогу вызывает тот факт, что технология deepfake не стоит на месте.
Она непрерывно совершенствуется, а создаваемые с ее помощью подделки становятся все более изощренными и, что немаловажно, доступными для широкого круга лиц, включая злоумышленников. Это означает, что угроза не статична, а постоянно эволюционирует, требуя от участников рынка недвижимости, где на кону стоят значительные финансовые активы, постоянной бдительности и регулярного обновления знаний о методах противодействия.
Легкость и скорость, с которой могут создаваться некоторые типы deepfake – например, базовые голосовые подделки могут быть сгенерированы за считанные минуты при наличии образца голоса и соответствующего программного обеспечения – свидетельствуют о своего рода «демократизации» инструментов для сложного мошенничества.
Рынок недвижимости представляет собой особенно привлекательную мишень для мошенников, использующих технологию deepfake, по нескольким ключевым причинам:
1. Высокая стоимость активов: Сделки с недвижимостью традиционно сопряжены с весьма крупными денежными суммами, что делает их чрезвычайно заманчивыми для преступников. Даже одна успешно проведенная мошенническая операция способна принести злоумышленникам колоссальную выгоду.
2. Цифровизация процессов: Наблюдается устойчивая тенденция к переводу многих этапов сделок в цифровой формат. Виртуальные туры по объектам, онлайн-переговоры, использование электронных подписей и удаленное заключение договоров становятся все более распространенной практикой. Эта цифровизация, с одной стороны, повышает удобство, но с другой – создает новые лазейки для применения deepfake-технологий. Уменьшение числа личных контактов и повышенная зависимость от цифровых каналов связи формируют «окна уязвимости».
3. Многообразие объектов для имперсонации: Мошенники активно используют deepfake для того, чтобы выдать себя за различных участников сделки: покупателей, продавцов, агентов по недвижимости, юристов и даже нотариусов. Кроме того, технология применяется для создания поддельных документов, таких как свидетельства о праве собственности или удостоверения личности, и даже для фальсификации подписей на договорах.
Генеративно-состязательные сети (GAN) – технологическое ядро deepfake
Одной из ключевых технологий, лежащих в основе создания большинства современных и наиболее убедительных deepfake, являются генеративно-состязательные сети, или GAN (Generative Adversarial Networks). Система GAN состоит из двух нейронных сетей, которые находятся в своего рода «соревновании»:
1. Генератор (Generator): Эта нейросеть отвечает за создание поддельного контента (например, изображения лица или фрагмента речи).
2. Дискриминатор (Discriminator): Вторая нейросеть выступает в роли «критика». Ее задача – научиться отличать поддельные данные, созданные генератором, от реальных, и указывать генератору на выявленные ошибки.
Этот итеративный процесс, где генератор создает, а дискриминатор оценивает и предоставляет «обратную связь», приводит к тому, что с каждой итерацией обе сети совершенствуются. В конечном итоге, генератор начинает производить настолько качественные deepfake, что их становится крайне сложно отличить от оригинала. Понимание этого «состязательного» принципа работы GAN помогает осознать, почему deepfake-технологии так быстро прогрессируют.
Исходные данные для создания deepfake: что нужно мошенникам
Для создания убедительного deepfake, имитирующего конкретного человека, злоумышленникам необходимы исходные данные – так называемые «образцы».
К ним относятся:
1. Фотографии человека (особенно портретные снимки с различных ракурсов).
2. Видеозаписи с участием этого человека.
3. Аудиозаписи голоса (для создания голосовых deepfake).
Чем больше качественных и разнообразных образцов внешности или голоса имеется в распоряжении мошенников, тем более реалистичной окажется подделка. Источниками таких данных могут служить профили в социальных сетях, публичные выступления, видео с корпоративных сайтов, интервью, а также информация, полученная путем перехвата данных видеоконференций или даже через фиктивные предложения о работе, связанные, например, с озвучиванием текстов.
Спектр возможностей: от подмены лиц до клонирования голоса
Важно понимать, что возможности технологии deepfake не ограничиваются только подменой лиц на видео.
Современные системы способны манипулировать широким спектром характеристик:
Лицо: Замена лица одного человека на лицо другого.
Мимика: Копирование или синтез выражений лица.
Жесты: Имитация характерных движений.
Голос: Клонирование или синтез голоса, позволяющий «озвучить» поддельное видео голосом целевого человека или создать полностью сфабрикованное аудиосообщение. Аудио-deepfake, или «голосовые клоны», представляют собой отдельную и не менее серьезную опасность, активно используемую в телефонных звонках и голосовых сообщениях для осуществления мошеннических схем, основанных на социальной инженерии.
Сценарии обмана: Deepfake в преступных схемах с недвижимостью
Технология deepfake предоставляет мошенникам новые рычаги для реализации как уже известных, так и новаторских схем обмана на рынке недвижимости. Deepfake здесь выступает не столько создателем принципиально новых видов мошенничества, сколько мощным «усилителем» эффективности и масштабируемости уже существующих преступных практик, таких как имперсонация или подделка документов. Добавляя слой убедительного аудиовизуального «доказательства», deepfake делает традиционные аферы значительно более трудными для обнаружения.
Имперсонация участников сделки: когда собеседник – не тот, за кого себя выдает
Одним из наиболее распространенных и опасных сценариев является имперсонация ключевых участников сделки с недвижимостью.
Мошенники активно используют технологию deepfake для того, чтобы выдать себя за:
1. Продавцов недвижимости: Создается поддельное видео или аудио, где якобы владелец недвижимости подтверждает свое намерение продать объект, обсуждает условия или дает указания по перечислению средств. Примером может служить случай во Флориде, где мошенник пытался продать земельный участок, используя deepfake-видео пропавшей женщины, выдавая ее за законную владелицу.
2. Покупателей недвижимости: Аналогичным образом может быть сымитирован покупатель для введения в заблуждение продавца или агента.
3. Агентов по недвижимости (риелторов): Мошенники могут создавать deepfake-видео или аудиосообщения от имени известных и авторитетных риелторов, чтобы завоевать доверие потенциальных жертв, предлагая несуществующие объекты или запрашивая предоплату.
4. Юристов и адвокатов: Поддельный «юрист» может связаться с одной из сторон сделки и, используя deepfake-голос, дать указание перевести аванс или полную сумму на мошеннический счет. Известен случай, когда таким образом был похищен шестизначный аванс .
5. Нотариусов: Хотя это более сложный сценарий, теоретически возможно использование deepfake для имитации нотариуса в ходе удаленной процедуры верификации или подписания документов .
Цель такой имперсонации – ввести в заблуждение другую сторону сделки, получить несанкционированный доступ к конфиденциальной информации или денежным средствам.
Успех таких афер часто зависит от способности обмануть хотя бы одного человека – «слабое звено» – в цепочке транзакции.
Создание фиктивных объявлений и манипуляция с визуализацией объектов
Deepfake и другие AI-технологии также находят применение в создании полностью фиктивных предложений на рынке недвижимости:
1. Фальшивые объявления: Мошенники могут размещать объявления о продаже или аренде несуществующих объектов, используя сгенерированные искусственным интеллектом изображения домов, квартир или земельных участков .
2. Манипуляция с визуализацией существующих объектов: Deepfake-видео могут использоваться для создания обманчивых виртуальных туров по реальным объектам, «улучшая» их внешний вид, скрывая дефекты или демонстрируя несуществующие преимущества .
Основная цель таких манипуляций – обмануть потенциальных покупателей или арендаторов на ранних стадиях взаимодействия.
Стратегии защиты от Deepfake-мошенничества
Учитывая растущую изощренность deepfake-технологий, защита ваших инвестиций в недвижимость требует комплексного подхода.
Поскольку пассивное обнаружение технических огрехов становится все сложнее, акцент смещается в сторону активной верификации и неукоснительного соблюдения процедур безопасности. Необходимо принять как данность, что «увидеть – больше не значит поверить» , и выстраивать свою систему безопасности вокруг этой новой реальности.
1. Многоканальная верификация личности – золотой стандарт: Никогда не полагайтесь на один канал коммуникации. Всегда проверяйте личность контрагента через несколько независимых источников . Это может включать личные встречи (особенно для ключевых этапов сделки) , проверку документов через официальные базы данных, и обратные звонки на стационарные или ранее известные и подтвержденные номера телефонов .
2. Использование многофакторной аутентификации (MFA): Внедряйте и используйте MFA для доступа ко всем важным аккаунтам и при подтверждении финансовых транзакций . Это создает дополнительный, часто непреодолимый для мошенников, барьер.
3. Тщательная проверка документов и цифровых подписей: Обращайте пристальное внимание на любые несоответствия в предоставленных документах: странные шрифты, ошибки в выравнивании текста, низкое качество фотографий на удостоверениях личности, несовпадение данных . Сравнивайте цифровые подписи с известными образцами, ищите признаки неестественной однородности или следы цифрового редактирования . По возможности, используйте специализированное программное обеспечение для проверки подлинности документов .
4. Критический анализ запросов и обстоятельств сделки – ваш главный союзник: Будьте особенно подозрительны к любым срочным и необычным запросам, особенно если они касаются перевода денежных средств, изменения платежных реквизитов или предоставления конфиденциальной информации . Мошенники часто пытаются создать атмосферу спешки и давления . Анализируйте поведение собеседника: если он избегает живого общения, отказывается от дополнительных процедур верификации, или если есть несоответствия в его словах (например, путаница с часовыми поясами) – это серьезные «красные флаги» . Всегда проверяйте публичные реестры для подтверждения истории владения недвижимостью .
5. Информированность и обучение – сила в знании: Регулярно обновляйте свои знания о новых видах мошенничества . Если вы ведете бизнес в сфере недвижимости, обеспечьте соответствующее обучение для своих сотрудников . Ограничьте объем личной информации (фотографий, видеозаписей, образцов голоса), находящейся в открытом доступе в интернете.
6. Использование доверенных платформ и безопасных каналов связи: Проводите все финансовые транзакции и обмен важными документами через проверенные и защищенные платформы, такие как надежные эскроу-сервисы или специализированные порталы для сделок с недвижимостью . Избегайте передачи конфиденциальной информации по незащищенным каналам .
Квалификация Deepfake-мошенничества по Уголовному Кодексу РФ
В Российской Федерации на данный момент нет отдельной статьи Уголовного кодекса (УК РФ), посвященной исключительно deepfake-мошенничеству. Однако действия, связанные с созданием и использованием deepfake в преступных целях, могут быть квалифицированы по ряду существующих статей УК РФ:
1. Статья 159 УК РФ «Мошенничество»: Это основная статья, которая может применяться в случаях, когда deepfake используется для хищения чужого имущества или приобретения права на чужое имущество путем обмана или злоупотребления доверием.
Согласно части 1 статьи 159 УК РФ, «Мошенничество, то есть хищение чужого имущества или приобретение права на чужое имущество путем обмана или злоупотребления доверием, — наказывается…» (далее санкции ужесточаются в зависимости от квалифицирующих признаков в последующих частях статьи).
2. Статья 159.6 УК РФ «Мошенничество в сфере компьютерной информации«: Если мошенничество с использованием deepfake связано с вмешательством в работу компьютерных систем, модификацией или блокированием компьютерной информации, то действия могут подпадать под эту статью.
3. Статья 137 УК РФ «Нарушение неприкосновенности частной жизни»: Если для создания deepfake незаконно собираются или используются сведения о частной жизни лица, составляющие его личную или семейную тайну, без его согласия, либо если deepfake используется для распространения таких сведений.
4. Статья 272 УК РФ «Неправомерный доступ к компьютерной информации»: Если создание или распространение deepfake было сопряжено с неправомерным доступом к охраняемой законом компьютерной информации.
Законодательные инициативы и позиция правоприменителей
Существует мнение, и оно находит отражение в некоторых законодательных инициативах, что использование deepfake-технологий при совершении мошенничества должно рассматриваться как отягчающее обстоятельство. Например, в сентябре 2024 года сообщалось о планах Правительства России рассмотреть законопроект об уголовной ответственности до шести лет лишения свободы за преступления с использованием дипфейков. Законопроект № 718538-8 предлагал определить использование дипфейков как отягчающее обстоятельство для ряда преступлений, включая мошенничество (ст. 159 УК РФ), клевету (ст. 128.1 УК РФ), кражу (ст. 158 УК РФ) и вымогательство (ст. 163 УК РФ).
Также, по данным на апрель 2025 года, депутаты Госдумы инициировали законопроект № 885494-8 о внесении изменения в статью 63 Уголовного кодекса РФ («Обстоятельства, отягчающие наказание»), предлагая сделать использование искусственного интеллекта (включая дипфейки) отягчающим обстоятельством.
По состоянию на 8 апреля 2025 года, этот законопроект был внесен в Госдуму.
Позиция Верховного Суда РФ:
Пленум Верховного Суда РФ в своем Постановлении от 15 декабря 2022 г. № 37 «О некоторых вопросах судебной практики по уголовным делам о преступлениях в сфере компьютерной информации, а также иных преступлениях, совершенных с использованием электронных или информационно-телекоммуникационных сетей, включая сеть «Интернет»» дал разъяснения, которые могут быть релевантны для дел с использованием deepfake. В частности, разъяснено, что мошенничество в сфере компьютерной информации (ст. 159.6 УК РФ), совершенное через неправомерный доступ или с использованием вредоносных программ, требует дополнительной квалификации по ст. 272, 273 или 274.1 УК РФ. Также указано, что для целей УК РФ понятия электронных и информационно-телекоммуникационных сетей не разграничиваются, и Интернет является одним из их видов.
Авторы некоторых юридических публикаций предлагают либо введение отдельной нормы уголовной ответственности за использование deepfake-технологий при посягательствах на собственность, либо закрепление такого использования в качестве квалифицирующего признака существующих составов, а также разъяснения Пленума ВС РФ о том, что применение ИИ (дипфейков) может быть способом совершения мошенничества, с необходимостью экспертного установления факта синтеза голоса или изображения.
Законодательство в этой сфере находится в стадии активного формирования. Это означает, что нельзя полагаться исключительно на юридические механизмы после совершения мошенничества.
Эпоха искусственного интеллекта принесла с собой не только невероятные возможности, но и новые, изощренные угрозы.
Технологии, используемые мошенниками, постоянно развиваются. Поэтому защита ваших активов – это не разовое мероприятие, а непрерывный процесс. В конечном счете, наиболее мощным оружием в борьбе с deepfake-мошенничеством является информированность. Понимание того, как работает эта технология, каковы ее возможности и ограничения, какие признаки могут указывать на подделку, и какие существуют методы защиты, – все это превращает потенциальную жертву в подготовленного и способного дать отпор участника рынка.
Контакты
Телефон: +7(905)-724-99-88
Электронная почта: Задать вопрос со смартфона
Вконтакте: Моя страница
Телеграм : Жилищный вопрос