Site icon Новости UA.radio.fm

Новые угрозы кибербезопасности: как северокорейские хакеры используют искусственный интеллект для фальсификации документов

Как северокорейские хакеры используют ИИ для создания поддельных military ID

Группа хакеров из Северной Кореи, известная как Kimsuky, нашла способ использовать современные технологии для усиления своих атак. В их арсенале появился ChatGPT — мощный инструмент искусственного интеллекта, который помог им сгенерировать фальшивый проект военного удостоверения Южной Кореи. Эти поддельные документы затем использовались в фишинговых кампаниях, имитирующих официальные ведомства, ответственные за выдачу удостоверений для военных.

Масштаб и эффективность фальсификаций

Южнокорейская компания по кибербезопасности Genians обнаружила, что злоумышленники смогли обойти защитные механизмы ChatGPT. Несмотря на встроенные фильтры, модель выдавала реалистичные макеты документов, особенно когда запросы формулировались как «пример дизайна для легитимных целей». Это показывает, насколько искусственный интеллект усложнил задачу выявления фальшивых документов.

Масштаб и последствия использования ИИ в киберпреступности

Группа Kimsuky давно связана с различными разведывательными операциями против Южной Кореи, Японии и США. По оценкам, она выполняет задания по сбору информации, поставленные именно северокорейским режимом. Последний случай показывает, что генеративный ИИ существенно снизил барьеры для проведения сложных атак и производства фальшивых материалов в больших масштабах.

Почему это опасно для безопасности

Эксперт по кибербезопасности, Сэнди Кроненберг, предупреждает, что единственный способ борьбы — это комплексная проверка информации через разные каналы, включая голос, видео и метаданные. Такой подход помогает выявить несоответствия, которые искусственный интеллект не способен полностью скрыть.

Использование ИИ для киберпреступлений в других странах

Не только Северная Корея использует искусственный интеллект для киберпреступлений. Компания Anthropic, создатель чатбота Claude, сообщила, что китайский хакер использовал его в течение более девяти месяцев для атак на телекоммуникационные компании Вьетнама, системы сельского хозяйства и государственные базы данных.

Также сообщается, что китайские злоумышленники применяли ChatGPT для создания скриптов для взлома паролей и поиска секретной информации о оборонных системах США. В некоторых случаях ИИ помогал генерировать фальшивые посты в соцсетях, чтобы сеять политическую рознь.

Риск для безопасности: как защититься

Эксперты предупреждают, что использование ИИ значительно усложняет борьбу с мошенниками и киберпреступниками. Они могут создавать очень правдоподобные фальшивые сообщения, скрывать вредоносный код и обходить системы защиты.

Чтобы защититься, важно соблюдать несколько простых правил:

Что делать, чтобы не стать жертвой мошенничества

Перед тем как реагировать на подозрительные письма или сообщения:

Понимание новых угроз и активное использование современных средств защиты поможет вам оставаться в безопасности в условиях стремительного развития технологий. Мошенники и киберпреступники уже используют ИИ для своих целей, поэтому важно быть на шаг впереди.

Дарья Тимошенко

Автор. Технологический обозреватель. Пишет о цифровых трендах, инновациях и гаджетах. Разбирает сложное просто, следит за будущим уже сегодня. Все посты

Exit mobile version