Рост угроз кибербезопасности с помощью искусственного интеллекта и распространениеDeepfake мошенничеств

Май 27, 2025

Виртуальные угрозы: как AI и deepfake меняют ландшафт киберпреступности

Представьте, что ваш телефон звонит, и голос на другом конце звучит так, будто это ваш начальник, близкий друг или даже государственный служащий. Они срочно просят передать конфиденциальную информацию, но на самом деле это не они. Это — deepfake, созданный с помощью искусственного интеллекта, и вы стали жертвой сложной мошеннической схемы. Такие атаки уже происходят сегодня и становятся все более убедительными с каждым днем.

Основные угрозы: новые вызовы для кибербезопасности

Об этом предупреждает доклад по безопасности искусственного интеллекта за 2025 год, представленный на крупнейшей конференции RSA (RSAC), где собираются ведущие эксперты, компании и правоохранительные органы. В нем подробно описывается, как злоумышленники используют возможности AI для имитации людей, автоматизации мошенничеств и атак на системы безопасности в масштабах, ранее казавшихся невозможными.

Масштабные атаки и новые виды мошенничества

От захвата AI-аккаунтов и подделки моделей до живых видеомошенничеств и отравления данных — доклад рисует картину стремительно развивающегося мира киберугроз, который теперь затрагивает жизни все большего числа людей и организаций.

Риски, связанные с использованием AI

Одной из главных проблем является случайное раскрытие пользователями своих данных при работе с AI-инструментами. Исследование компании Check Point показало, что примерно в каждом 80-м запросе к AI содержится рискованная информация, а в каждом 13-м — конфиденциальные сведения, способные поставить под угрозу безопасность или нарушить нормативные требования.

Что именно уязвимо?

  • Пароли и учётные данные
  • Внутренние бизнес-планы и стратегии
  • Информация о клиентах и партнерах
  • Принадлежащий к интеллектуальной собственности код

Передача такой информации AI-системам, не защищённым должным образом, может привести к её логированию, перехвату или утечке, что создаёт серьёзные риски для пользователей и организаций.

Усиление возможностей мошенников с помощью AI

Имитация голосов и лиц в реальном времени становится всё более продвинутой. В начале 2024 года британская инженерная компания потерпела убытки в размере 20 миллионов фунтов стерлингов после того, как мошенники использовали живое deepfake-видео для имитации руководства во время видеоконференции. Обманщики выглядели и говорили как доверенные лидеры, убедив сотрудника перевести деньги.

Инструменты для преступников

На криминальных форумах уже продаются инструменты для подделки видео и замены лиц в реальном времени, что позволяет злоумышленникам запускать мошенничества через границы и языковые барьеры. Эти технологии делают атаки более быстрыми и масштабными, исключая необходимость знания языка жертвы или постоянного присутствия онлайн.

Автоматизация социальной инженерии

Традиционная социальная инженерия давно использовалась в киберпреступлениях, но теперь AI автоматизирует этот процесс. Например, такие инструменты, как GoMailPro, используют ChatGPT для создания фишинговых писем с грамотным, звучащим как родной язык текстом. Они могут генерировать тысячи уникальных сообщений с разными словами и степенью срочности, что помогает им обходить спам-фильтры и достигать целей.

Автоматизированные чаты и масштабные мошенничества

Инструменты вроде X137 Telegram Console используют Gemini AI для автоматического мониторинга и ответов на сообщения. Они могут имитировать поддержку клиентов или известных контактов, ведя одновременные диалоги и создавая иллюзию реального человека за экраном.

Распространение и развитие новых схем мошенничества

AI активно используется для масштабных схем вымогательства, таких как sextortion — угрозы распространения компрометирующих материалов за деньги. Современные мошенники используют AI для переписывания угроз, делая их более личными и убедительными, что увеличивает шансы на успех.

Масштабируемость и доступность

Эти инструменты позволяют даже новичкам запускать крупные, персонализированные кампании без особых навыков. В результате масштаб мошенничеств вырос, и злоумышленники теперь целенаправленно атакуют аккаунты, связанные с AI-инструментами, крадя логины и API-ключи для обхода лимитов и сокрытия своей личности.

Угрозы для платформ и защиты данных

Злоумышленники используют malware, фишинг и методы подбора паролей для кражи учетных данных, которые затем продают на тёмной сети. Также они используют AI для создания вредоносных программ, фишинговых наборов и сценариев ransomware, что делает атаки ещё более сложными и масштабными.

Отравление AI и распространение фальшивых данных

Кроме прямых атак, злоумышленники используют тактику AI poisoning — подделку данных, вводимых в системы. В 2024 году было опубликовано множество поддельных моделей и фейковых статей, что заставляет AI выдавать ложную информацию и вредоносный код.

Защита от новых угроз: что важно знать

Чтобы снизить риски, рекомендуется избегать ввода конфиденциальных данных в публичные AI-инструменты, использовать антивирусное ПО и двухфакторную аутентификацию, а также регулярно проверять свои финансовые и личные аккаунты на наличие подозрительной активности.

Практические меры безопасности

  • Не делитесь паролями и секретной информацией с AI-системами.
  • Обновляйте все программное обеспечение и системы безопасности.
  • Используйте сильные уникальные пароли и менеджеры паролей.
  • Активируйте двухфакторную аутентификацию на всех важных платформах.
  • Будьте осторожны при получении неожиданных видеозвонков или голосовых сообщений — они могут быть deepfake.
  • Рассмотрите возможность использования служб по удалению личных данных из публичных баз и базы данных данных брокеров.
  • Поддерживайте регулярный мониторинг своих финансовых счетов и используйте услуги защиты от кражи личности.

Что делать, если ваши данные уже в сети

Если вы подозреваете, что ваши личные сведения были скомпрометированы, воспользуйтесь бесплатными сканами и сервисами для выявления утечек. Это поможет оперативно принять меры по защите и предотвратить дальнейшие злоупотребления.

Обратите внимание, что злоумышленники могут также использовать AI для создания ложных отзывов, фальшивых документов или поддельных страниц, что усложняет выявление подделок. Поэтому важно быть бдительным и регулярно обновлять свои меры защиты.

Дарья Тимошенко

Дарья Тимошенко

Автор. Технологический обозреватель. Пишет о цифровых трендах, инновациях и гаджетах. Разбирает сложное просто, следит за будущим уже сегодня. Все посты

By

Related Post