ИИ ускоряет разработку и эксплуатацию систем — но без контроля данные утекают, код становится уязвимым, а агент действует на своё усмотрение. Недоверие обосновано.
AI-код — бомба внутри продукта AI генерирует код с неизвестными уязвимостями — взлом, простой, утечка данных
AI-утечки — данные уходят наружу Сотрудники бесконтрольно передают конфиденциальную информацию во внешние LLM
AI-атаки — старое ПО под новой угрозой AI кратно снижает стоимость поиска уязвимостей в существующих системах
Процессы не готовы к AI Регламенты не адаптированы — AI не раскрывает полный потенциал, либо запрещён целиком
Использовать опасно. Не использовать — дорого. SAID разрывает этот круг: методология, которая делает ИИ управляемым — в разработке и эксплуатации.
AI-ассистенты сокращают время разработки в 2-4 раза. Компании, которые не используют AI, уже проигрывают тем, кто использует. Но внедрение без контроля создаёт риски, которые могут стоить дороже всей экономии:
Утечка данных через AI
35% данных в AI-инструментах — чувствительные. Разработчик вставляет код с ПДн клиентов в ChatGPT — и данные уходят за периметр. Штраф: до 500 млн ₽ (420-ФЗ).
Уязвимый код от AI
45% AI-кода проваливает тесты безопасности. SQL-инъекции, XSS, захардкоженные пароли — AI генерирует их «уверенно», разработчик не замечает.
AI не подчиняется правилам
Промпт «не отправляй секреты» — не защита. AI-агент может быть обманут через prompt injection или самовольно расширить scope, прочитав .env «чтобы помочь».
Цена ошибки: Один инцидент утечки ПДн через AI-ассистент может стоить компании от 25 до 500 млн ₽ (420-ФЗ), уголовной ответственности для руководителя (Указ №250) и до 10 лет лишения свободы для субъектов КИИ (ст. 274.1 УК).
SAID — Безопасный искусственный интеллект в разработке и эксплуатации
Цель: Внедрить AI в разработку и эксплуатацию так, чтобы получить полный экономический эффект — и при этом обеспечить сохранность данных, безопасность кода и конфиденциальность при работе с AI-агентами.
Для кого
Подходит организациям любой формы собственности
Частный секторГосударственные структуры
Потребители AI
Используют AI в работе
Сотрудники применяют готовые AI-сервисы и ассистентов в повседневных задачах.
Пишут код с AI-ассистентами, обучают модели, встраивают LLM в свои сервисы.
AI-ассистенты для кодаВстраивание LLM в продуктОбучение своих моделейАгентские системы
Свои команды
Штатные разработчики внутри периметра компании.
Внешние подрядчики
Аутсорс-команды, фрилансеры или партнёры в цепочке разработки.
Как применять
Внедрение SAID идёт по трём векторам изменений с применением 12 базовых правил безопасной работы с AI. Каждый вектор закрывает свою группу рисков:
01
Процессы
Использование и разработка с AI: code review AI-кода, обучение команды, human-in-the-loop, логирование промптов, метрики качества, PDCA-цикл.
02
Нормативные документы
Политики использования AI, классификация данных, регламенты реагирования на инциденты, NDA с пунктом об AI.
03
Технологическая инфраструктура
On-premise LLM, AI Gateway, DLP-фильтрация промптов, контейнерная изоляция, SAST/SCA в CI/CD, SIEM-интеграция.
12 базовых правил SAID — общая основа для всех трёх векторов
12 правил SAID
Каждое правило закрывает конкретный AI-риск. Детализация — в части 4.
Процессы
Нормативные документы
Технологическая инфраструктура
1. Определи, что надо защищать
Сначала пойми, какие данные в компании являются чувствительными активами. Без этого нельзя оценить риск их использования в AI. → Подробнее
2. Размещай AI рядом с обрабатываемыми данными
Не «всегда локально» — а соответственно классификации: чувствительное обрабатывается внутри контролируемого контура, открытое — где удобнее. → Подробнее
3. Не доверяй агенту больше, чем он должен знать
Агента можно обмануть текстом или он сам расширит scope. Минимум привилегий, песочница, Zero Trust по умолчанию — только то, что нужно для текущей задачи. → Подробнее
4. История AI должна жить дольше задачи
Промпты, ответы и действия агентов сохраняются столько же, сколько сами данные. Без журнала нельзя расследовать инцидент или подтвердить compliance. → Подробнее
5. Проверяй AI-код как чужой
Код от AI проходит тот же конвейер проверки, что код от любого внешнего автора: SAST/SCA в CI/CD, code review без fast-track, маркировка. → Подробнее
6. Никаких прямых диалогов пользователей с AI
Промпт идёт через шлюз: маскирование ПДн, удаление секретов, фильтр проприетарного кода — до того, как сообщение увидит модель. → Подробнее
7. Защити модель — она знает больше всех
Модель аккумулирует данные из всех систем и становится концентратом знаний компании. Защита от prompt injection, кражи через API, подмены в supply chain, утечки через генерацию.
8. Прослеживаемость данных в AI-генерации
Знай, откуда AI взял каждый фрагмент — код, текст, изображение, данные. На этом строятся лицензионная чистота, доверие к источнику и защита от санкционных рисков.
9. AI обязан объяснить, человек — понять
AI обязан показать обоснование вывода — модель, источники, ход рассуждений. Финальное решение за человеком: понимаешь — отвечаешь.
10. Измеряй и адаптируй
KPI, метрики, ежеквартальный review, red teaming, PDCA. → Подробнее
11. Разрешить и контролировать, а не запрещать и не видеть
Запрет рождает теневое использование. Корпоративный AI должен быть удобнее личного: доступ есть — теневого AI не нужно, контроль виден — компания знает, что происходит.
12. Старые роли и процессы = потерянная эффективность
AI снижает порог входа: аналитик пишет SQL и Python, PM собирает прототип сам. Старые регламенты «передай в разработку, жди очереди» съедают AI-эффект или гонят его в теневой обход. Сжимай процесс там, где AI снял ограничение — добавь проверки на выходе, закрепи зону ответственности новых ролей.
Целевая архитектура
Так выглядит компания с внедрённым SAID: технические слои защиты и обязательные новые ветки в существующих процессах. Цифры в скобках — номера правил, которые закрывает слой.
Ландшафт компании с внедрённым SAID
Стандартная сетевая архитектура (внешняя сеть → корпоративный периметр → периметр разработки) и где SAID добавляет новые компоненты, донастраивает существующие или опирается на стандартные.
Новый — компонента нет в типовой инфраструктуре
Настройка — расширяем существующую систему
Уже есть — стандартный компонент компании
Внешняя сеть (Интернет) внешние AI-сервисы
ЕстьВнешние AI-провайдеры
YandexGPT API / GigaChat / Claude
Только для открытых данных
Прямой доступ запрещён
НовыйКонтракт ИБ с провайдером 11
DPA, SLA на retention/удаление
Юрисдикция РФ, право аудита
Документ длительного хранения
Только через корпоративный AI Gateway
Корпоративный периметр внутренняя сеть
ЕстьСетевой периметр
Firewall / NGFW
Forward proxy (Squid)
VPN-доступ
НастройкаEgress-контроль 6
На существующем proxy: allowlist AI-эндпоинтов
Блокировка прямых походов в ChatGPT/Claude
TLS-инспекция AI-трафика
НовыйКорпоративный AI Gateway 6
LiteLLM / OpenWebUI / Vellum
DLP-фильтр (Purview, Bearer, Presidio)
Маршрутизация по классификации данных
Все промпты — в журнал
НастройкаIDM / RBAC 6, 9
Keycloak / FreeIPA — роли «AI user», «AI admin»
MFA для AI-инструментов
OPA — политики для AI-эндпоинтов
НастройкаSIEM / Журналы 4
Wazuh / Splunk — корреляции для AI-событий
OpenSearch / Loki — индекс AI-логов
Retention по сроку жизни данных
НастройкаVDI для подрядчиков 6, 11
Termidesk / Guacamole — профили с запретом shadow-AI
Запись сессий, аудит AI-действий
AI-инфраструктура внутри периметра для ПДн, чувствительных данных
НовыйOn-prem LLM 2
vLLM / Ollama / TGI на корпоративном GPU
GigaChat / YandexGPT on-prem
Дообучение на корпоративных данных
НовыйVector DB / RAG 2, 8
Qdrant / Weaviate / pgvector
Хранение корпоративных эмбеддингов
RAG-индекс с контролем доступа
НовыйПесочница AI-агента 3
gVisor / Kata / Firejail
Read-only FS, network allowlist
Falco для runtime-мониторинга
НастройкаVault для AI 3, 6
HashiCorp Vault — policies для AI-агентов
Эфемерные токены
Запрет .env в досягаемости AI
НовыйЗащита модели 7
Garak / PromptFoo — adversarial-тесты
Rate-limit, детектор аномалий
Sigstore / in-toto — supply chain
НовыйРеестр моделей 8
MLflow / W&B on-prem
Версии, датасеты, метрики
OpenLineage для pipeline'ов
CI/CD, артефакты, AI-код
Периметр разработки CI/CD, репозитории, тестирование
ЕстьРепозитории и CI/CD
GitLab / Gitea / Bitbucket
Jenkins / GitLab CI / Argo
Артефакторий (Nexus / Harbor)
НастройкаSAST/SCA gate для AI-кода 5, 8
Semgrep / Bearer / Snyk Code — правила под AI-паттерны
OSS-сканер: GPL-фрагменты, чужой код
Блокировка merge без AI-метки и провенанса
НовыйProvenance gate 8
Sigstore — подпись AI-сгенерированных артефактов
Маркировка commit-trailers (Co-Authored-By: AI)
Реестр промптов, моделей, версий
НовыйТесты на уязвимости AI 7, 10
PyRIT / Garak — prompt injection тесты
Adversarial-датасеты в pipeline
Red teaming как этап CI
Только для КИИ / гостайны
КИИ-контур КИИ, гостайна — для гос/187-ФЗ
ЕстьАппаратная изоляция
Air-gap, data diodes
Реестровое железо и ПО
Физически изолированный GPU-кластер
ЕстьСертифицированные СКЗИ
КриптоПро / ВипНет / реестр ФСБ
ФСТЭК-сертифицированные средства
Аттестация системы
НастройкаГосСОПКА для AI 4
SIEM подключён к ГосСОПКА — обычно есть
Категории AI-инцидентов в playbook НКЦКИ
Уведомления по 187-ФЗ расширены на AI
Обязательные ветки в процессах
SAID не отменяет существующий процесс разработки и эксплуатации, а добавляет к нему обязательные шаги в ключевых точках:
Стандартный процесс
Задача
↓
Разработка
↓
Ревью
↓
CI/CD
↓
Прод
↓
Эксплуатация
Процесс с SAID
Задача
↓
+ Классификация данныхметка чувствительности на уровне задачи / репозитория
Jira-меткиdata catalogOpenLineage
Правило 1
↓
+ Выбор контура AIмаршрутизация запроса по классификации
LiteLLMOPA-policyOpenWebUI proxy
Правило 2
↓
Разработкачерез AI-шлюз, агент в песочнице, всё в журнал
Эксплуатацияконтракт ИБ с провайдером, VDI для подрядчиков, инциденты по playbook
DPA + SLATermidesk / GuacamoleГосСОПКА / РКН
Правила 6, 11
↓
+ Контроль и улучшениеKPI на дашборде, red teaming, PDCA, аттестация
Grafana KPIGarak red teamФСТЭК-аттестация
Правило 10
Старые роли и процессы пересматриваются: AI снижает порог входа в задачи. Аналитик пишет SQL и Python с AI-помощником, PM собирает прототип, дизайнер кодит анимацию. Регламенты обязаны это закрепить — иначе AI-эффект уходит в теневые сервисы (правило 12).
Дорожная карта внедрения
Пять этапов последовательного внедрения: от аудита до непрерывного улучшения. Каждый этап продвигает одну или несколько целей:
Снижение издержек
Защита от утечек
Безопасность кода
Соответствие закону
1
Аудит и подготовка
Уровень: Предприятие
ИздержкиУтечкиУязвимостиЗакон
Задача
Что делаем
Результат
Трек А / Трек Б
Классификация данных
Инвентаризация, матрица 5 категорий
Реестр с маппингом "что AI видит"
Трек Б: +аудит данных подрядчиков
Политика использования AI
Разработка регламента с ИБ и юристами
Утверждённый документ
Трек Б: +пункт NDA об AI
Роли и ответственность
Назначение по Указу №250, RACI-матрица
Каждый знает свою зону
Трек Б: +ответственный за подрядчиков
Оценка поставщиков AI
Анализ вендоров, санкционные риски
Выбор модели развёртывания
Трек Б: +оценка AI-инструментов подрядчика
Снижение издержек
10%
Защита от утечек
30%
Безопасность кода
5%
Соответствие закону
40%
1-2 недТрек А
2-3 недТрек Б
Definition of Done: Реестр данных утверждён, политика подписана, роли назначены, модель развёртывания выбрана.
2
Инфраструктура и защита
Уровни: Эксплуатация AI + Предприятие
УтечкиЗаконИздержки
Задача
Что делаем
Результат
Трек А / Трек Б
Развёртывание AI-инфраструктуры
On-premise/hybrid/air-gapped по результатам этапа 1
AI работает внутри периметра
Трек Б: +VDI для подрядчиков, отдельные endpoints
DLP-фильтрация промптов
Настройка фильтров ПДн/секретов на gateway
Утечки блокируются до отправки
Трек Б: +усиленные правила для endpoints подрядчиков
Введите текст промпта и проверьте, что обнаружит DLP-фильтр:
Zero Trust к AI-агенту
AI НЕ соблюдает правила сам по себе. Промпт «не отправляй секреты» — пожелание, не барьер. Через prompt injection или «услужливость» агент обойдёт любые текстовые инструкции.
Промпт vs Техника
Контроль
Промптовый (ненадёжный)
Технический (надёжный)
Доступ к секретам
"Не читай .env"
Файл НЕ смонтирован в контейнер
Отправка наружу
"Не отправляй данные"
NetworkPolicy: egress только к LLM
Деструктивные команды
"Не выполняй rm -rf"
seccomp/AppArmor блокирует
Scope файлов
"Работай только в /src"
Bind mount: только /src существует
Подтверждение
"Спрашивай перед действием"
Human-in-the-loop gateway с approval queue
Архитектура: 3 уровня защиты
Разработчик ──> IDE (Permission Layer) ──> AI Gateway (DLP filter) ──> AI Runtime (Container isolation)
│ │ │ │
│ .aiignore PII/secret redaction Docker + seccomp
│ разрешения IDE routing / logging bind mount /src only
│ контроль плагинов rate limiting NetworkPolicy DENY all
│ short-lived credentials
Обновление моделей, инструментов, обучение новичков
Act
Корректировка процессов, новые правила, обновление чеклистов
Check
Red teaming AI-инфраструктуры, анализ инцидентов, бенчмарк
PDCA
Мониторинг законодательства
152-ФЗ, ФСТЭК, КИИ — область активно регулируется. Отслеживайте изменения не реже раза в квартал.
Версионирование методологии
SAID v1.0 → v1.1 → ... Каждое обновление фиксирует изменения в политиках и инструментах.
Оценка компонентов
Сводная таблица ROI
Компонент
Стоимость внедрения
Что защищает
ROI
Классификация данных
~0 (процесс)
Штрафы 1-500 млн
Высочайший
On-premise LLM
18 млн ₽+ (GPU)
Утечки кода и данных
Высокий для КИИ
AI Gateway + DLP
450 тыс–1,8 млн ₽/год
ПДн, секреты в промптах
Высокий
Контейнерная изоляция
~0 (open-source)
Автономные действия AI
Высокий
SAST/SCA в CI/CD
0–360 тыс ₽/мес
Уязвимости AI-кода
Очень высокий
Обучение (3 модуля)
2-3 дня команды
Human error
Высокий
SIEM-интеграция
По запросу
Инциденты, compliance
Средний-высокий
Калькулятор стоимости внедрения
Ваш профиль внедрения SAID
-
Бюджет (год 1)
-
Срок внедрения
-
Макс. штраф при бездействии
Приоритетные задачи:
ГОСТ Р 56939-2024 и AI-разработка
SAID — расширение процессов безопасной разработки ПО (ГОСТ Р 56939-2024) для организаций, использующих AI-ассистенты. ГОСТ определяет 25 процессов SDLC. SAID дополняет каждый из них мерами контроля AI-рисков.
Зачем это нужно? ГОСТ Р 56939-2024 — базовый стандарт для сертификации процессов безопасной разработки (Приказ ФСТЭК №240). Ни ГОСТ, ни приказ не учитывают AI-ассистированную разработку: генерацию кода через LLM, AI-агентов в CI/CD, вайб-кодинг. SAID заполняет этот пробел.
25 процессов ГОСТ: группировка
Этап жизненного цикла
Процессы ГОСТ
Кол-во
Организация и планирование
5.1 Планирование, 5.2 Обучение
2
Требования и управление
5.3 Требования безопасности, 5.4 Конфигурация, 5.5 Недостатки
3
Проектирование
5.6 Архитектура, 5.7 Модель угроз
2
Реализация (кодирование)
5.8 Правила кодирования, 5.9 Code review, 5.10 SAST, 5.11 DAST
8 новых процессов появились в ГОСТ 2024 (vs 2016): моделирование угроз, безопасность сборочной среды, управление доступом к коду, секреты, SCA, supply chain, нефункциональное тестирование, безопасная поставка.
Приказ ФСТЭК №240 — Сертификация процессов РБПО
Сертификат подтверждает, что ПО создаётся с учётом требований безопасности (SDLC), минимизируя уязвимости. Даёт право самостоятельно испытывать обновления сертифицированных СЗИ.
Что сертифицируется
Процессы безопасной разработки ПО — не продукт, не организация. На соответствие 25 процессам ГОСТ Р 56939-2024.
Срок действия
Сертификат выдаётся на срок до 5 лет (актуальная редакция от 30.06.2025, Приказ №230).
Кому нужен
Изготовителям средств защиты информации (СЗИ) для ГИС, КИИ, ИСПДн. Даёт право самостоятельных испытаний обновлений.
Процедура получения
1
Заявка
Изготовитель подаёт заявку в ФСТЭК России
15 рабочих дней
2
Решение
ФСТЭК назначает аккредитованный орган по сертификации
По результатам рассмотрения
3
Проверка
Орган проверяет процессы на площадке: документация, инструменты, артефакты, компетенции
По договору
4
Сертификат
ФСТЭК выдаёт сертификат соответствия процессов РБПО
до 30 + 10 рабочих дней
Что проверяется при сертификации
Аспект
Что смотрят
AI-расширение SAID
Документация
Руководство по РБПО соответствует ГОСТ
Раздел про AI-процессы в руководстве
Инструменты
SAST, DAST, SCA реально используются
AI Gateway, DLP промптов, детекция slopsquatting
Артефакты
Отчёты анализов, логи, записи
Логи AI-промптов, маркировка AI-кода
Процессы
Фактически работают, не только на бумаге
Code review AI-кода, изоляция агентов
Компетенции
Персонал обучен безопасной разработке
Модуль обучения безопасному AI-кодингу
Связь с другими приказами
Приказ
Область
Как связан с №240
№55
Сертификация продуктов (СЗИ)
№240 дополняет — сертификация процессов разработки
№17
Защита ГИС
Обязывает использовать сертифицированные СЗИ
№21
Защита ИСПДн
Рекомендует сертифицированные СЗИ
№239
Защита КИИ
Обязывает сертифицированные СЗИ для значимых объектов
Маппинг: 25 процессов ГОСТ × SAID
Для каждого процесса ГОСТ Р 56939-2024 — что добавляет SAID для контроля AI-рисков.
Процесс ГОСТ
AI-расширение SAID
Ключевые меры
5.1 Планирование РБПО
Включить AI в область процессов
Аудит shadow AI, выбор модели LLM, бюджет GPU
5.2 Обучение сотрудников
Модуль безопасного AI-кодинга
Automation bias, типичные CWE в AI-коде, prompt injection
5.3 Требования безопасности
Классификация данных для AI
Что можно/нельзя в промпт, политика по категориям данных
Нагрузка inference, pentest prompt injection, red teaming
5.20 Выпуск
Метрики AI-кода в критерии приёмки
Code churn, release gate для AI-кода
5.21 Поставка
SBOM с AI-маркировкой
Подпись артефактов, сертифицированные СКЗИ для КИИ
Процесс ГОСТ
AI-расширение SAID
Ключевые меры
5.22 Поддержка
AI-компоненты в документации
Канал обратной связи по AI-проблемам
5.23 Реагирование
AI-утечка = инцидент ИБ
Логирование промптов, SIEM-алерты, уведомление ГосСОПКА (24-72ч для КИИ)
5.24 Поиск уязвимостей
Red teaming AI
Prompt injection, data exfiltration, jailbreak, bug bounty
5.25 Вывод из эксплуатации
Удаление AI-моделей и данных
Зачистка fine-tuning данных, отзыв AI-credentials
Дополнительные AI-процессы (вне ГОСТ)
Следующие процессы специфичны для AI-разработки и не имеют аналогов в ГОСТ Р 56939-2024:
AI-1. DLP для промптов
Контроль данных, отправляемых в AI-модели. InfoWatch, AI Gateway, фильтрация ПДн/секретов, белые/чёрные списки сервисов.
AI-2. Закрытый контур
Air-gapped инфраструктура с on-premise LLM для КИИ/ГИС. Data diodes, сертифицированные СКЗИ, VDI, карантин обновлений.
AI-3. Метрики AI-безопасности
KPI: уязвимости AI vs human, code churn, DLP-блокировки, red teaming. Ежеквартальный review, мониторинг законодательства.
Матрица: доступность по категориям организаций
Что обязательно, что рекомендуется, что доступно — в зависимости от типа организации и нормативных требований.
Сертификация и процессы
Категория
Сертификация (Пр.240)
Процессы ГОСТ
SAID AI-расширение
Разработчик СЗИ
Доступна
Обязательны
Рекомендуется
Субъект КИИ (своя разработка)
Не применяется
Best practice
Критически важно
Оператор ГИС
Не применяется
Рекомендуются
Рекомендуется
Оператор ИСПДн
Не применяется
Рекомендуются
Рекомендуется
Коммерческая компания
Не применяется
Добровольно
Добровольно
Обязательные меры по категориям
Требование
КИИ
ГИС
ИСПДн
Коммерческая
On-premise LLM (запрет зарубежных)
Обязательно
Обязательно
Рекомендуется
По выбору
Закрытый контур (air-gap)
Обязательно
По классу ГИС
Нет
Нет
Логирование AI-взаимодействий
Обязательно
Обязательно
Обязательно
Рекомендуется
DLP для AI-промптов
Обязательно
Обязательно
Рекомендуется
Рекомендуется
Уведомление ГосСОПКА (24-72ч)
Обязательно
Нет
Нет
Нет
Сертифицированные СКЗИ
Обязательно
По классу ГИС
Нет
Нет
Классификация данных для AI
Обязательно
Обязательно
Обязательно
Рекомендуется
Code review AI-кода
Обязательно
Обязательно
Рекомендуется
Рекомендуется
Для субъектов КИИ: использование зарубежных AI-сервисов не просто рискованно — это может квалифицироваться по ст. 274.1 УК РФ (до 10 лет). 187-ФЗ + Указ №166 (запрет иностранного ПО на КИИ с 2025) делают on-premise LLM единственным легальным вариантом.
Нормативные основания
Приказ ФСТЭК №240
Сертификация процессов РБПО. Вступил 01.06.2024, ред. 30.06.2025. До 5 лет.
ГОСТ Р 56939-2024
25 процессов безопасной разработки ПО. Заменил версию 2016. Введён 20.12.2024.
187-ФЗ + Указы №166/250
Безопасность КИИ, запрет иностранного ПО, ответственность руководителя за ИБ.
152-ФЗ + 420-ФЗ
Защита ПДн, локализация, оборотные штрафы до 500 млн ₽ за повторные утечки.
Начните внедрение SAID
Помогаем компаниям выстроить безопасный процесс AI-разработки
Аудит AI-практик
Оценка текущих рисков, gap analysis, рекомендации по приоритетам
Внедрение SAID
Полный цикл: от классификации данных до red teaming AI-инфраструктуры
Обучение команды
Тренинги по безопасному AI-кодингу для разработчиков и ревьюеров