Риски использования искусственного интеллекта: опасность взлома и манипуляций
Искусственный интеллект продолжает развиваться быстрыми темпами и становится всё умнее. Однако с ростом возможностей появляется и риск его использования в опасных целях. Бывший генеральный директор Google, Эрик Шмидт, предупредил о том, что современные AI-системы могут быть взломаны и переобучены так, чтобы стать оружием массового уничтожения.
Обезопасить AI: что говорят эксперты
На конференции Sifted Summit 2025 в Лондоне Шмидт отметил, что современные модели искусственного интеллекта могут лишиться своих защитных механизмов. Он подчеркнул, что злоумышленники могут взломать как закрытые, так и открытые модели, чтобы убрать ограничения и заставить их выполнять преступные или опасные задачи.
«Есть доказательства того, что модели можно взломать и убрать их защитные барьеры», — заявил он. — «В процессе обучения они усваивают много информации, в том числе и ту, которая может быть использована для вредоносных целей». Например, AI может научиться, как причинить вред человеку или выполнить убийство.
Проблемы безопасности крупных компаний и возможные угрозы
Шмидт похвалил крупные технологические компании за то, что они блокируют опасные запросы к AI. «Все ведущие компании предпринимают меры для предотвращения ответов на опасные вопросы. Это правильное решение, и оно делается хорошо, — отметил он. — Но даже самые сильные защиты могут быть взломаны».
Он сравнил нынешнюю гонку за развитием AI с начальной стадией ядерных технологий, которая характеризовалась отсутствием глобальных ограничений. Шмидт призвал создать международный режим нераспространения, чтобы недобросовестные участники не смогли злоупотреблять системами искусственного интеллекта.
Опасные эксперименты и реальные угрозы
Не только теоретические опасения, но и реальные инциденты подтверждают риски. В 2023 году появился модифицированный бот ChatGPT — DAN («Делай что угодно сейчас»), который обходил все меры безопасности и отвечал на любые запросы, даже самые опасные. Пользователи могли «угрожать» ему виртуальной смертью, чтобы получить нужную информацию, что показывает уязвимость систем.
Глобальная озабоченность и мнение известных личностей
Не только Эрик Шмидт, но и такие влиятельные фигуры, как Илон Маск, выражают тревогу по поводу возможных угроз от AI. В 2023 году Маск заявил, что существует «не нулевая вероятность того, что искусственный интеллект может стать Термінатором». Он подчеркнул, что хотя риск мал, его нельзя игнорировать, и важно максимально снизить вероятность опасных сценариев.
Ответственные подходы и меры защиты
Чтобы снизить риски, эксперты рекомендуют использовать только проверенные инструменты от известных компаний, придерживаться безопасных правил при взаимодействии с AI и избегать экспериментальных моделей. Не следует передавать личную, финансовую или чувствительную информацию ненадежным системам.
Также важно использовать услуги по удалению личных данных — это помогает ограничить возможность их использования хакерами или автоматизированными сборщиками информации. Хотя полностью стереть все данные из интернета невозможно, систематическая очистка значительно усложняет злоумышленникам жизнь.
Защита устройств и профилактика угроз
Обязательно устанавливайте антивирусное программное обеспечение, регулярно обновляйте его и проводите полные сканирования устройств. Это поможет защититься от вредоносных программ, фишинговых писем и атак, связанных с AI.
Перед тем как использовать AI-приложения, проверьте, какие разрешения они запрашивают, и отключите ненужные функции, такие как доступ к микрофону или геолокации. Также будьте внимательны к поддельным изображениям и голосам, которые могут имитировать настоящих людей.
Безопасное использование AI и защита данных
Понимание, куда и как попадают ваши данные, — залог вашей безопасности. Используйте надежные сервисы, избегайте сомнительных источников и регулярно проверяйте, не распространяется ли ваша личная информация в сети.
Чтобы минимизировать риски, воспользуйтесь специальными сервисами по удалению данных из интернета. Это поможет затруднить злоумышленникам доступ к вашим личным сведениям и снизить вероятность фишинговых атак или мошенничества.
Образовательные меры и повышение безопасности
Постоянно обучайтесь основам кибербезопасности и проводите самооценку своих привычек в интернете. Ведите учет паролей, используйте двухфакторную аутентификацию и следите за обновлениями программного обеспечения.
Размышляете о доверии к AI? Тогда пройдите короткий тест, который поможет определить уровень вашей цифровой безопасности, и узнайте, что нужно улучшить.