Виртуальные угрозы: как AI и deepfake меняют ландшафт киберпреступности
Представьте, что ваш телефон звонит, и голос на другом конце звучит так, будто это ваш начальник, близкий друг или даже государственный служащий. Они срочно просят передать конфиденциальную информацию, но на самом деле это не они. Это — deepfake, созданный с помощью искусственного интеллекта, и вы стали жертвой сложной мошеннической схемы. Такие атаки уже происходят сегодня и становятся все более убедительными с каждым днем.
Основные угрозы: новые вызовы для кибербезопасности
Об этом предупреждает доклад по безопасности искусственного интеллекта за 2025 год, представленный на крупнейшей конференции RSA (RSAC), где собираются ведущие эксперты, компании и правоохранительные органы. В нем подробно описывается, как злоумышленники используют возможности AI для имитации людей, автоматизации мошенничеств и атак на системы безопасности в масштабах, ранее казавшихся невозможными.
Масштабные атаки и новые виды мошенничества
От захвата AI-аккаунтов и подделки моделей до живых видеомошенничеств и отравления данных — доклад рисует картину стремительно развивающегося мира киберугроз, который теперь затрагивает жизни все большего числа людей и организаций.
Риски, связанные с использованием AI
Одной из главных проблем является случайное раскрытие пользователями своих данных при работе с AI-инструментами. Исследование компании Check Point показало, что примерно в каждом 80-м запросе к AI содержится рискованная информация, а в каждом 13-м — конфиденциальные сведения, способные поставить под угрозу безопасность или нарушить нормативные требования.
Что именно уязвимо?
- Пароли и учётные данные
- Внутренние бизнес-планы и стратегии
- Информация о клиентах и партнерах
- Принадлежащий к интеллектуальной собственности код
Передача такой информации AI-системам, не защищённым должным образом, может привести к её логированию, перехвату или утечке, что создаёт серьёзные риски для пользователей и организаций.
Усиление возможностей мошенников с помощью AI
Имитация голосов и лиц в реальном времени становится всё более продвинутой. В начале 2024 года британская инженерная компания потерпела убытки в размере 20 миллионов фунтов стерлингов после того, как мошенники использовали живое deepfake-видео для имитации руководства во время видеоконференции. Обманщики выглядели и говорили как доверенные лидеры, убедив сотрудника перевести деньги.
Инструменты для преступников
На криминальных форумах уже продаются инструменты для подделки видео и замены лиц в реальном времени, что позволяет злоумышленникам запускать мошенничества через границы и языковые барьеры. Эти технологии делают атаки более быстрыми и масштабными, исключая необходимость знания языка жертвы или постоянного присутствия онлайн.
Автоматизация социальной инженерии
Традиционная социальная инженерия давно использовалась в киберпреступлениях, но теперь AI автоматизирует этот процесс. Например, такие инструменты, как GoMailPro, используют ChatGPT для создания фишинговых писем с грамотным, звучащим как родной язык текстом. Они могут генерировать тысячи уникальных сообщений с разными словами и степенью срочности, что помогает им обходить спам-фильтры и достигать целей.
Автоматизированные чаты и масштабные мошенничества
Инструменты вроде X137 Telegram Console используют Gemini AI для автоматического мониторинга и ответов на сообщения. Они могут имитировать поддержку клиентов или известных контактов, ведя одновременные диалоги и создавая иллюзию реального человека за экраном.
Распространение и развитие новых схем мошенничества
AI активно используется для масштабных схем вымогательства, таких как sextortion — угрозы распространения компрометирующих материалов за деньги. Современные мошенники используют AI для переписывания угроз, делая их более личными и убедительными, что увеличивает шансы на успех.
Масштабируемость и доступность
Эти инструменты позволяют даже новичкам запускать крупные, персонализированные кампании без особых навыков. В результате масштаб мошенничеств вырос, и злоумышленники теперь целенаправленно атакуют аккаунты, связанные с AI-инструментами, крадя логины и API-ключи для обхода лимитов и сокрытия своей личности.
Угрозы для платформ и защиты данных
Злоумышленники используют malware, фишинг и методы подбора паролей для кражи учетных данных, которые затем продают на тёмной сети. Также они используют AI для создания вредоносных программ, фишинговых наборов и сценариев ransomware, что делает атаки ещё более сложными и масштабными.
Отравление AI и распространение фальшивых данных
Кроме прямых атак, злоумышленники используют тактику AI poisoning — подделку данных, вводимых в системы. В 2024 году было опубликовано множество поддельных моделей и фейковых статей, что заставляет AI выдавать ложную информацию и вредоносный код.
Защита от новых угроз: что важно знать
Чтобы снизить риски, рекомендуется избегать ввода конфиденциальных данных в публичные AI-инструменты, использовать антивирусное ПО и двухфакторную аутентификацию, а также регулярно проверять свои финансовые и личные аккаунты на наличие подозрительной активности.
Практические меры безопасности
- Не делитесь паролями и секретной информацией с AI-системами.
- Обновляйте все программное обеспечение и системы безопасности.
- Используйте сильные уникальные пароли и менеджеры паролей.
- Активируйте двухфакторную аутентификацию на всех важных платформах.
- Будьте осторожны при получении неожиданных видеозвонков или голосовых сообщений — они могут быть deepfake.
- Рассмотрите возможность использования служб по удалению личных данных из публичных баз и базы данных данных брокеров.
- Поддерживайте регулярный мониторинг своих финансовых счетов и используйте услуги защиты от кражи личности.
Что делать, если ваши данные уже в сети
Если вы подозреваете, что ваши личные сведения были скомпрометированы, воспользуйтесь бесплатными сканами и сервисами для выявления утечек. Это поможет оперативно принять меры по защите и предотвратить дальнейшие злоупотребления.
Обратите внимание, что злоумышленники могут также использовать AI для создания ложных отзывов, фальшивых документов или поддельных страниц, что усложняет выявление подделок. Поэтому важно быть бдительным и регулярно обновлять свои меры защиты.