+7 (916) 902 00 80
info@gromkoedelo.ru
Услуги О проекте Контакты Карта сайта
15 Декабря, Понедельник$79.7393.56
ПОИСК ПО САЙТУ
Роскомнадзор Интеллектуальная собственность ФНС Адвокатура Арбитраж Законодательство ФСПП Банкротства ФСБ Минобороны, СВО Коррупция Нотариат Корпоративные споры Госдума Мошенничество ФСИН Хищения Следственный комитет Взятки Правозащита МВД Гражданские дела Минюст Экономические преступления Прокуратура Уголовные преступления Громкие дела
Telegram-канал «Громкое Дело»
Блог Голоса, видео, аккаунты: как мошенники используют ИИ против вас 01.12.2025 19:27 161

Наиболее распространенной платформой для реализации мошеннических схем с использованием искусственного интеллекта является Telegram

Автор Игорь Давыдов Подробнее

Мошенники, использующие продвинутые алгоритмы и возможности искусственного интеллекта, становятся все более изощренными в своих действиях. Они создают поддельные голоса и изображения, находя разнообразные способы обмана, опираясь на доверие пользователей интернет-ресурсов и мобильных платформ. За последние годы искусственный интеллект значительно развился: он способен писать стихи, создавать картины, программировать и даже генерировать шутки. Нейросети находят применение в поиске информации, автоматизации рутинных процессов, анализе данных и во многих других областях. Эти технологии ускоряют работу, повышают ее точность и делают доступными новые возможности. Однако, пока мы используем нейросети для благих целей, мошенники уже активно извлекают из них прибыль. Их действия настолько хитроумны, что жертвы осознают обман лишь тогда, когда вернуть средства становится невозможно.

Представьте ситуацию: вы берете телефон, чтобы ответить на входящий звонок, и слышите голос близкого человека. Тембр, интонации и манера речи звучат абсолютно естественно. Он срочно просит вас перевести деньги, утверждая, что "карта заблокирована" или "попал в беду" и тд.. После перевода средств вы узнаете, что это был искусственно сгенерированный голос. Деньги исчезают, и вернуть их становится невозможно.

В другой ситуации вы обнаруживаете товар по привлекательной цене на, казалось бы, надежном сайте с реальными отзывами и видеобзором. Однако после оплаты товар не приходит, и оказывается, что магазин никогда не существовал. Все это было создано с помощью искусственного интеллекта.

Фейковые звонки часто поступают с незнакомых номеров и в позднее время суток, чтобы застать вас врасплох. Сгенерированные нейросетями голоса могут звучать неестественно — быть монотонными или немного роботизированными, содержать неверные ударения или частые паузы. Следует насторожиться, если фразы слишком короткие, так как их легче сгенерировать и труднее распознать как ложные. Также подозрительными могут быть необычные для собеседника выражения или манера общения.

На сегодняшний день можно выделить несколько основных схем мошенничества с использованием искусственного интеллекта:

1. Фальшивые голосовые сообщения в мессенджерах

Один из наиболее распространенных видов мошенничества заключается в создании поддельных голосовых сообщений. Схема начинается с захвата аккаунта жертвы, после чего мошенники используют уловки, такие как ложные просьбы о помощи, чтобы убедить жертву ввести свой номер телефона и код из СМС. Затем они собирают голосовые сообщения, ранее отправленные владельцем аккаунта, и создают поддельные аудиозаписи, которые рассылаются контактам с просьбами о срочной финансовой помощи. Убедительность таких сообщений делает их особенно опасными.

2. Фейковые видеоролики в мессенджере Telegram

Другой популярный метод обмана включает использование коротких видеороликов, известных как "кружочки". Схема начинается с захвата аккаунта жертвы, после чего мошенники анализируют доступные фотографии и создают реалистичные видеоролики, имитирующие движения лица и мимику. Эти поддельные "кружочки" публикуются от имени владельца аккаунта, вызывая доверие у друзей и знакомых, после чего мошенники рассылают сообщения с просьбами о деньгах, подкрепляя их визуальной "достоверностью". Этот метод обмана становится все более популярным благодаря своей простоте и эффективности.

Таким образом, использование искусственного интеллекта в мошеннических схемах представляет собой серьезную угрозу, и важно быть внимательными и осведомленными о возможных рисках. 

Собеседник может намеренно использовать запугивание для создания атмосферы тревоги, что затрудняет адекватное восприятие ситуации и ускоряет процесс получения от вас конфиденциальной информации или денежных средств. Важно сохранять спокойствие и не принимать никаких решений без предварительной проверки. Рекомендуется задавать уточняющие и наводящие вопросы, чтобы прояснить ситуацию. В идеале, лучше всего завершить разговор и заблокировать номер.

Не следует раскрывать личные или корпоративные данные, даже если вы уверены, что на связи друг, начальник или представитель банка. Если злоумышленник получит доступ к вашим паспортным данным, информации о банковских картах и аккаунтах, он сможет не только похитить ваши финансовые средства, но и совершить кражу личности. Убедитесь в подлинности звонка, задавая вопросы, на которые может ответить только настоящий звонящий.

Наиболее распространенной платформой для реализации таких мошеннических схем является Telegram. Рассмотрим последовательность действий злоумышленников:

1. Взлом аккаунта. Мошенники получают доступ к учетным записям жертв с использованием методов социальной инженерии, таких как поддельные конкурсы и фальшивые розыгрыши, предлагающие подписку на Telegram Premium. Жертва, перейдя по ссылке «голосования», оказывается на фишинговом сайте, где вводит свой номер телефона и код авторизации, как при входе в Telegram на новом устройстве. Таким образом, злоумышленники перехватывают данные для авторизации и получают доступ к аккаунту жертвы.

2. Сбор материалов. После успешного взлома аккаунта и авторизации на своем устройстве мошенники начинают скачивать голосовые сообщения из переписок. В случае недостатка материалов, они используют информацию из социальных сетей для создания более правдоподобных аудиозаписей.

3. Генерация голоса. С помощью технологий искусственного интеллекта злоумышленники создают несколько аудиосообщений, в которых содержатся просьбы о финансовой помощи, а также сообщения для отвода подозрений, например: «Это я, не переживай, задай вопрос, если сомневаешься» или «Не могу говорить, позже перезвоню».

4. Генерация изображения банковской карты. Мошенники используют данные, полученные из слитых баз, чтобы создать фальшивые изображения банковских карт, оформленные на имя жертвы. Важно отметить, что номер карты привязан к счету мошенника в менее известных банках.

5. Атака. Злоумышленники применяют сгенерированные аудиозаписи в различных сценариях. Некоторые отправляют их в начале переписки вместе с фальшивым изображением карты, чтобы вызвать немедленную реакцию, в то время как другие подключают голосовые сообщения в процессе общения, когда жертва начинает сомневаться.


Генерация голоса в реальном времени

Одним из наиболее тревожных методов является технология синтеза голоса в реальном времени, позволяющая мошенникам вести живые диалоги от имени знакомых жертвы. Хотя этот подход требует значительных технических ресурсов и пока встречается редко, его потенциал вызывает серьезные опасения. Искусственный интеллект способен с высокой точностью воспроизводить голос, что дает возможность преступникам вступать в непосредственное общение с жертвой. Это усиливает психологическое воздействие, поскольку знакомый голос снижает бдительность и мешает критически оценивать ситуацию. Эксперты предсказывают, что с развитием технологий подобные схемы будут становиться все более распространенными, увеличивая количество жертв. Специалисты подчеркивают, что защита от таких угроз требует не только технических решений, но и повышения цифровой грамотности пользователей.

Как мошенники используют голоса друзей и родственников для вымогательства:

Схема, основанная на использовании голосовых клонов, не нова и достигла своего пика во время пандемии. В отличие от фишинговых писем, которые можно внимательно прочитать, голос вызывает больше доверия и оставляет меньше времени для анализа.

Видеоролики с реальными лицами. В ближайшем будущем мошенники могут получить мощный инструмент для обмана — технологии онлайн-генерации видео с лицами реальных людей. Используя всего несколько фотографий жертвы, искусственный интеллект способен создать динамическое видео, практически неотличимое от реального. Это открывает возможности для проведения видеозвонков, где мошенники могут выдавать себя за знакомых или близких жертвы, что значительно повышает шансы на успех аферы. На данный момент качество таких подделок несовершенно, и внимательный наблюдатель может заметить артефакты, указывающие на искусственное происхождение изображения.

Видеоролики с изображениями умерших лиц. Мошенники могут использовать цифровые копии покойных людей, созданные с помощью искусственного интеллекта, в различных схемах. Эти угрозы в основном направлены на родственников и знакомых покойных и реализуются через социальные сети и мессенджеры.

 

Источник: Агентство судебной информации «Громкое дело»
Telegram-канал «Громкое Дело»
Судебные процессы, новости права, судебный PR
Подписаться

Взаимодействие и партнерство

tass-e1552291245243.png