Федеральная служба по техническому и экспортному контролю (ФСТЭК) планирует до конца 2025 года представить проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ), пишут "Ведомости". Документ будет дополнением к существующему стандарту по безопасной разработке программного обеспечения и сфокусируется на специфических угрозах, связанных с ИИ, таких как уязвимости моделей машинного обучения и особенности работы с большими данными.
Проект стандарта разрабатывается с учетом необходимости детализированного методического руководства, охватывающего весь жизненный цикл ИИ-систем, включая сбор, хранение и маркировку данных, а также обеспечение их конфиденциальности и целостности. Новый документ призван закрыть пробелы традиционных моделей кибербезопасности, которые не учитывают риски, характерные для ИИ, такие как "отравление" данных, "инъекции" промтов и "галлюцинации" моделей.
Разработанные требования, вероятно, будут адресованы в первую очередь компаниям, создающим ИИ-решения для государственного сектора и критической инфраструктуры, а также государственным заказчикам и операторам. В перспективе стандарт может стать отраслевым и для коммерческого сектора. Его внедрение направлено на минимизацию рисков ошибок и инцидентов, связанных с использованием некорректных или мошеннических данных, что особенно важно для систем с юридически значимыми решениями.
Проект учитывает текущие изменения в законодательстве: с 1 марта 2026 года вступят в силу новые требования ФСТЭК по защите информации в государственных системах, в том числе по безопасности ИИ. Однако существующие нормативы часто ограничены общими положениями без конкретных рекомендаций по реализации.
Напомним, как ранее писал "Кабельщик", ИТ-специалисты в России не боятся потери работы из-за ИИ.
- Войдите или зарегистрируйтесь, чтобы оставлять комментарии