ФСТЭК официально признала искусственный интеллект источником киберугроз

23.12.2025 14:09

Российский регулятор — Федеральная служба по техническому и экспортному контролю — впервые включил риски, связанные с использованием ИИ, в государственный банк данных угроз. Теперь разработчики софта для госструктур и критической инфраструктуры (КИИ) обязаны учитывать эти уязвимости при создании систем защиты, сообщают "Ведомости".

В перечень вошли специфические угрозы для моделей машинного обучения, датасетов и инструментов генерации ответов (RAG). Описаны такие векторы атак, как модификация промптов (запросов), DoS-атаки на нейросети и вмешательство в процесс обучения моделей. Любая организация, защищающая персональные данные по закону 152-ФЗ, теперь должна использовать этот список для разработки своих моделей угроз.

Опубликованный перечень станет базой для полноценного ГОСТа по безопасной разработке ИИ-систем, который должен появиться до конца 2025 года. С 1 марта 2026 года вступают в силу новые требования к защите информации в госсистемах, где вопросам безопасности ИИ посвящен отдельный раздел.

Международная статистика показывает, что использование ИИ злоумышленниками привело к взрывному росту киберпреступности. Например, количество фишинговых рассылок в мире выросло на 1265% именно благодаря массовой генерации писем нейросетями. ФСТЭК стремится создать методическую базу, чтобы предотвратить подобные сценарии в российском госсекторе.

Напомним, ранее "Кабельщик" писал, что правительственная комиссия одобрила второй пакет мер по борьбе с кибермошенничеством.