Компании не доверяют ИИ.
И правильно делают.

ИИ ускоряет разработку и эксплуатацию систем — но без контроля данные утекают, код становится уязвимым, а агент действует на своё усмотрение. Недоверие обосновано.

AI-код — бомба внутри продукта
AI генерирует код с неизвестными уязвимостями — взлом, простой, утечка данных
AI-утечки — данные уходят наружу
Сотрудники бесконтрольно передают конфиденциальную информацию во внешние LLM
AI-атаки — старое ПО под новой угрозой
AI кратно снижает стоимость поиска уязвимостей в существующих системах
Процессы не готовы к AI
Регламенты не адаптированы — AI либо неэффективен, либо запрещён целиком

Использовать опасно. Не использовать — дорого.
SAID разрывает этот круг: методология, которая делает ИИ управляемым — в разработке и эксплуатации.

45%
AI-кода проваливает тесты безопасности OWASP
500 млн ₽
оборотный штраф за повторную утечку ПДн
×10
рост security-находок в AI-коде за полгода
35%
данных в AI-инструментах — чувствительные

Исследования и статьи

Актуальные источники, на которых основана методология SAID.

Уязвимости в AI-сгенерированном коде

Почему AI пишет небезопасный код: результаты тестирования 100+ моделей

45% AI-кода проваливает тесты OWASP. AI-код в 2.74 раза уязвимее человеческого. XSS — 86% провалов. Размер модели не решает проблему.

Скорость ×4, уязвимости ×10: обратная сторона AI-кодинга

10 000+ новых security-находок в месяц. Рост в 10 раз за полгода. Разработчики слепо доверяют AI-коду и не проверяют его.

Утечки данных через AI-инструменты

35% данных в AI-инструментах — конфиденциальные: анатомия утечек

73% AI-использования — через личные аккаунты (shadow AI). Исходный код — 18.7% утечек. Рост объёма AI-данных на 485% за год.

$4.88 млн за утечку: как AI стал новым вектором атаки

13% организаций — взломы AI-систем. 97% без контроля доступа. Средняя стоимость утечки — рекорд. AI для безопасности экономит $2.2 млн.

Supply chain атаки и slopsquatting

Взлом Amazon Q, три CVE в Cursor, захват через GitHub: хроника атак

Реальные инциденты 2025: prompt injection в Amazon Q (964 000 установок), RCE через одну строку в Cursor, эксфильтрация через GitHub Issues.

Все AI-модели галлюцинируют пакеты: как это становится оружием

11 моделей, 3 языка. Все галлюцинируют. Кодовые модели хуже общих (26.9% vs 13.6%). Python — 23% галлюцинаций.

Когда AI-агент устанавливает вредоносный пакет: анатомия slopsquatting

5-20% запросов содержат галлюцинации. Злоумышленники регистрируют эти имена с инфостилерами и бэкдорами.

Российское законодательство

420-ФЗ: оборотные штрафы за утечки ПДн — что изменилось

Штрафы выросли в сотни раз: до 500 млн ₽. 24 часа на уведомление РКН. AI-промпт с ПДн = утечка = штраф.

Практический разбор: как подготовиться к оборотным штрафам

Кто попадает под 420-ФЗ, пошаговая подготовка, шаблоны уведомлений, AI-специфичные риски, экономика подготовки.

Безопасность AI-инструментов

Одна строка кода — полный контроль: prompt injection в AI-IDE

CVE-2025-59944, CurXecute (CVSS 8.6). Unicode zero-width characters скрывают команды. Фундаментальная проблема всех AI-агентов.

Slopsquatting: практическое руководство по защите

7 конкретных шагов: allowlist, lockfile, метаданные, SCA, запрет автоустановки, code review зависимостей, мониторинг.

OWASP Top 10 для LLM: 10 главных рисков и защита

Prompt injection, утечки, supply chain, excessive agency — разбор каждого риска с примерами и решениями SAID.

Цель и логика внедрения

Бизнес-цель компании: снижение издержек и рост прибыли

AI-ассистенты сокращают время написания кода в 2-4 раза, ускоряют onboarding новых разработчиков и снижают стоимость разработки. Для бизнеса это прямое снижение издержек и конкурентное преимущество. Компании, которые не используют AI в разработке, уже проигрывают тем, кто использует.

Однако внедрение AI без контроля создаёт новые риски, которые могут стоить дороже, чем вся экономия. Поэтому возникает конкретная задача:

Задача: Внедрить AI в разработку так, чтобы получить экономический эффект — и при этом не допустить утечек данных, уязвимостей в коде и нарушений законодательства. Именно эту задачу решает методология SAID.

Проблема: AI создаёт риски, которые дороже выгоды

Без контроля AI-инструменты создают три категории рисков, каждая из которых может перечеркнуть экономию от ускорения разработки:

Утечка данных через AI

35% данных в AI-инструментах — чувствительные. Разработчик вставляет код с ПДн клиентов в ChatGPT — и данные уходят за периметр. Штраф: до 500 млн ₽ (420-ФЗ).

Уязвимый код от AI

45% AI-кода проваливает тесты безопасности. SQL-инъекции, XSS, захардкоженные пароли — AI генерирует их «уверенно», разработчик не замечает.

AI не подчиняется правилам

Промпт «не отправляй секреты» — не защита. AI-агент может быть обманут через prompt injection или самовольно расширить scope, прочитав .env «чтобы помочь».

Вывод: безопасное внедрение AI — обязательное условие

AI в разработке — это не опция, а необходимость для конкурентоспособности. Но без системного контроля утечек данных, уязвимостей кода и автономности AI-агентов выгода от ускорения разработки будет перечёркнута штрафами, инцидентами и потерей доверия клиентов.

Цена ошибки: Один инцидент утечки ПДн через AI-ассистент может стоить компании от 25 до 500 млн ₽ (420-ФЗ), уголовной ответственности для руководителя (Указ №250) и до 10 лет лишения свободы для субъектов КИИ (ст. 274.1 УК).

Цель SAID: внедрить AI с контролем рисков

Снизить издержки на разработку

Дать разработчикам AI-инструменты, которые ускоряют работу — но в контролируемой среде, без создания новых каналов утечки

Исключить утечки данных

ПДн, коммерческая тайна и секреты не покидают периметр — даже если разработчик попытается отправить их в AI

Снизить уязвимости в коде

Сократить долю уязвимого AI-кода с 45% до менее 5% через автоматические проверки и обязательный review

Обеспечить соответствие закону

152-ФЗ, 187-ФЗ, 420-ФЗ, приказы ФСТЭК — методология покрывает все требования, включая оборотные штрафы

Два трека внедрения

Методология адаптируется под два сценария — в зависимости от того, кто пишет код:

Трек А

Внутренняя разработка

Все разработчики — штатные сотрудники внутри периметра компании.

  • Корпоративные устройства и сеть
  • Прямой доступ к on-premise LLM
  • Единый DLP и мониторинг
  • Срок внедрения: 5-9 недель
Трек Б

С внешними подрядчиками

В цепочке разработки участвуют подрядчики, аутсорс-команды или фрилансеры.

  • VDI — код не на машине подрядчика
  • Усиленное логирование AI-взаимодействий
  • NDA + запрет внешних AI для кода заказчика
  • Срок внедрения: 8-14 недель
Оба трека ведут к одному результату: AI ускоряет разработку, данные защищены

Дорожная карта внедрения

Четыре этапа последовательного внедрения: от аудита до непрерывного улучшения. Каждый этап продвигает одну или несколько целей:

Снижение издержек
Защита от утечек
Безопасность кода
Соответствие закону
1

Аудит и подготовка

Уровень: Предприятие

Издержки Утечки Уязвимости Закон
ЗадачаЧто делаемРезультатТрек А / Трек Б
Классификация данных Инвентаризация, матрица 5 категорий Реестр с маппингом "что AI видит" Трек Б: +аудит данных подрядчиков
Политика использования AI Разработка регламента с ИБ и юристами Утверждённый документ Трек Б: +пункт NDA об AI
Роли и ответственность Назначение по Указу №250, RACI-матрица Каждый знает свою зону Трек Б: +ответственный за подрядчиков
Оценка поставщиков AI Анализ вендоров, санкционные риски Выбор модели развёртывания Трек Б: +оценка AI-инструментов подрядчика
Снижение издержек
10%
Защита от утечек
30%
Безопасность кода
5%
Соответствие закону
40%
1-2 недТрек А
2-3 недТрек Б
Definition of Done: Реестр данных утверждён, политика подписана, роли назначены, модель развёртывания выбрана.
2

Инфраструктура и защита

Уровни: Эксплуатация AI + Предприятие

Утечки Закон Издержки
ЗадачаЧто делаемРезультатТрек А / Трек Б
Развёртывание AI-инфраструктуры On-premise/hybrid/air-gapped по результатам этапа 1 AI работает внутри периметра Трек Б: +VDI для подрядчиков, отдельные endpoints
DLP-фильтрация промптов Настройка фильтров ПДн/секретов на gateway Утечки блокируются до отправки Трек Б: +усиленные правила для endpoints подрядчиков
Контроль автономности AI (Zero Trust) Контейнеры, NetworkPolicy, seccomp, output-фильтр AI физически не может выйти за периметр Одинаково для обоих треков
Контроль Shadow AI Блокировка неавторизованных AI-сервисов, корпоративный портал Вся AI-активность через контролируемые каналы Трек Б: +мониторинг AI-трафика с VDI подрядчиков
Управление доступом RBAC, лимиты по ролям Минимально необходимый доступ Трек Б: +ограниченные роли для подрядчиков
Снижение издержек
50%
Защита от утечек
80%
Безопасность кода
15%
Соответствие закону
70%
2-4 недТрек А
3-6 недТрек Б
Definition of Done: AI-инфраструктура работает, DLP фильтрует, Shadow AI заблокирован, доступ по ролям, подрядчики на VDI (Трек Б).
3

Процессы разработки

Уровень: Разработка

Уязвимости Издержки Утечки
ЗадачаЧто делаемРезультатТрек А / Трек Б
Безопасный SDLC Изменение git flow: AI-код = недоверенный, обязательный review Ни одна строка AI-кода без проверки Одинаково
CI/CD pipeline gitleaks → Semgrep → SCA → Socket.dev → SonarQube Уязвимости блокируются автоматически Одинаково
Обучение команды 3 модуля: риски, практики, инструменты Разработчики осознают риски Трек Б: +обучение подрядчиков
Лицензионная чистота Фильтр дубликатов, сканирование, маркировка Исключён GPL-risk Одинаково
Управление зависимостями Allowlist + Socket.dev + lockfile Slopsquatting заблокирован Одинаково
Процедуры для подрядчиков scope, exit-процедура, аудит Контроль внешних разработчиков Только Трек Б
Снижение издержек
80%
Защита от утечек
90%
Безопасность кода
85%
Соответствие закону
85%
1-2 недТрек А
2-3 недТрек Б
Definition of Done: CI/CD pipeline настроен и блокирует уязвимости, 100% команды прошла обучение, подрядчики работают по процедуре (Трек Б).
4

Контроль и непрерывное улучшение

Уровни: Предприятие + Разработка + Эксплуатация AI

Издержки Утечки Уязвимости Закон
ЗадачаЧто делаемРезультатТрек А / Трек Б
Мониторинг и аудит Логирование промптов, SIEM-интеграция, алерты Полный аудит-трейл Трек Б: +усиленный мониторинг подрядчиков
KPI безопасности Dashboard: % уязвимостей, DLP-блокировок, покрытие обучением Объективная оценка прогресса Одинаково
Управление инцидентами Playbook, уведомление РКН/ГосСОПКА Время реагирования <24ч Одинаково
Red teaming Ежеквартальная проверка: prompt injection, exfiltration, bypass DLP Проактивное обнаружение слабых мест Одинаково
Жизненный цикл моделей Обновления через карантин, версионирование Нет регрессий при обновлении Одинаково
Контроль стоимости Бюджет по командам, кэширование, роутинг ROI прозрачен Одинаково
Цикл PDCA Ежеквартальный пересмотр политик, метрик, правил DLP Непрерывное улучшение Одинаково
Снижение издержек
95%+
Защита от утечек
98%+
Безопасность кода
95%+
Соответствие закону
98%+
ongoingТрек А
ongoingТрек Б
Definition of Done: KPI в зелёной зоне, первый red team проведён, PDCA-цикл запущен.

4.1 Классификация данных

Определите категории данных до подключения AI-инструментов. Это основа всей системы защиты.

КатегорияПримерыМожно в AI?Основание
ОбщедоступныеOpen-source, публичная документацияДа---
ВнутренниеБизнес-логика, архитектураС ограничениямиРежим КТ (98-ФЗ)
КонфиденциальныеПДн клиентов, финансыТолько on-premise152-ФЗ
СекретныеКлючи, пароли, токеныКатегорически нет---
КИИ / ГостайнаКод критических системТолько air-gapped187-ФЗ, ст. 274.1 УК

4.2 Модели развёртывания AI

КритерийCloud API
КонфиденциальностьСредняя
Качество генерацииВысокое
Стоимость (год, 100 разрабов)~4,5 млн ₽
Время внедрения1 день
Для КИИ/госовНет

Инструменты: Copilot Business, Claude API Team, ChatGPT Enterprise

КритерийOn-Premise
КонфиденциальностьВысокая
Качество генерацииСреднее
Стоимость (год, 100 разрабов)~27 млн ₽+
Время внедрения2-4 недели
Для КИИ/госовДа

Инструменты: Ollama + DeepSeek Coder, vLLM, TabbyML, GigaChat Enterprise

КритерийHybrid (Gateway)
КонфиденциальностьВысокая
Качество генерацииВысокое
Стоимость (год, 100 разрабов)~7 млн ₽
Время внедрения1-2 недели
Для КИИ/госовЧастично

Инструменты: LiteLLM Proxy, Portkey AI Gateway + DLP

Сравнительная таблица

КритерийCloud APIOn-PremiseHybrid (Gateway)
КонфиденциальностьСредняяВысокаяВысокая
Качество генерацииВысокоеСреднееВысокое
Стоимость (год, 100 разрабов)~4,5 млн ₽~27 млн ₽+~7 млн ₽
Время внедрения1 день2-4 недели1-2 недели
Для КИИ/госовНетДаЧастично

4.3 DLP-фильтрация промптов

Контролируйте, что уходит в модель. Новый канал утечки, невидимый для классического мониторинга.

Что фильтровать

ПДн

ФИО, email, телефон, ИНН, паспорт

Секреты

API-ключи, пароли, токены, приватные ключи

SQL с данными

Production-запросы с реальными данными клиентов

Проприетарный код

Алгоритмы, составляющие коммерческую тайну

Пример конфигурации DLP-правил

dlp_rules:
  - name: "PII Detection"
    patterns: [email, phone_ru, inn, passport]
    action: block_and_alert
  - name: "Secrets"
    patterns: [api_key, password, token, private_key]
    action: redact_and_log
  - name: "Classified Code"
    patterns: [internal_markers]
    action: warn_and_log

Интерактивный DLP-симулятор

DLP-анализ промпта

Введите текст промпта и проверьте, что обнаружит DLP-фильтр:

4.4 Zero Trust к AI-агенту

AI НЕ соблюдает правила сам по себе. Промпт «не отправляй секреты» — пожелание, не барьер. Через prompt injection или «услужливость» агент обойдёт любые текстовые инструкции.

Промпт vs Техника

КонтрольПромптовый (ненадёжный)Технический (надёжный)
Доступ к секретам"Не читай .env"Файл НЕ смонтирован в контейнер
Отправка наружу"Не отправляй данные"NetworkPolicy: egress только к LLM
Деструктивные команды"Не выполняй rm -rf"seccomp/AppArmor блокирует
Scope файлов"Работай только в /src"Bind mount: только /src существует
Подтверждение"Спрашивай перед действием"Human-in-the-loop gateway с approval queue

Архитектура: 3 уровня защиты

Разработчик ──> IDE (Permission Layer) ──> AI Gateway (DLP filter) ──> AI Runtime (Container isolation) │ │ │ │ │ .aiignore PII/secret redaction Docker + seccomp │ разрешения IDE routing / logging bind mount /src only │ контроль плагинов rate limiting NetworkPolicy DENY all │ short-lived credentials

Таблица угроз и технических защит

УгрозаПримерТехническая защита
Prompt InjectionСкрытая инструкция в READMEPrompt injection detector (Lakera Guard)
«Услужливость»AI читает .env чтобы «помочь»Файл не смонтирован
Tool Use без спросаAI выполняет curl наружуNetworkPolicy DENY all + allowlist
Side-channel exfiltrationСекрет в URL параметре тестаOutput DLP-фильтр
Игнорирование классификацииAI обрабатывает «секретные» данныеDLP на входе + выходе, данные не доступны

4.5 Проверки AI-кода (SAST/SCA pipeline)

CI/CD Pipeline безопасности

git push gitleaks (secrets) semgrep (SAST) pip-audit / npm audit (SCA) socket.dev (slopsquatting) sonarqube human code review merge

Чеклист ревьюера для AI-кода

Интерактивный SAST-сканер

Анализ уязвимостей в AI-коде

Выберите пример уязвимого кода для анализа:

# SQL Injection (CWE-89)
def get_user(username):
    query = f"SELECT * FROM users WHERE name = '{username}'"
    return db.execute(query)

4.6 Аудит и метрики

Каждый промпт — это лог. Без логирования невозможно расследовать инциденты и обеспечить compliance.

Структура лога AI-взаимодействия

{
  "timestamp": "2026-03-28T14:30:00Z",
  "user_id": "dev-42",
  "model": "deepseek-coder-v2",
  "prompt_hash": "sha256:abc...",
  "prompt_size_tokens": 1200,
  "files_in_context": ["api/users.py"],
  "pii_detected": false,
  "secrets_detected": false
}
Для субъектов КИИ: утечка через AI-промпт — инцидент ИБ, требующий уведомления ГосСОПКА за 24-72 часа (187-ФЗ + Приказ ФСБ №367).

Средства реализации

Изменения в процессах

СредствоЧто даётТрек АТрек Б
Политика использования AIЮридическое основание, единые правилаДаДа
Code Review чеклистСнижение уязвимостей AI-кодаДаДа
Программа обучения (3 модуля)Осознанное использование AIДаДа + подрядчики
NDA + пункт об AIЗащита от утечек через подрядчика---Да
Процедура AI-инцидентовБыстрое реагированиеДаДа

Изменения в ПО

ИнструментНазначениеСтоимостьЭффект
Ollama / vLLMOn-premise LLMOpen-sourceДанные внутри периметра
SemgrepSASTБесплатно / ~3 500 ₽/dev/месАвтодетекция CWE
gitleaksSecret scanningOpen-sourceБлокировка утечки ключей
InfoWatch / Lakera GuardDLP промптовПо запросуФильтрация ПДн/секретов
Socket.devSCA + anti-slopsquattingFree tierSupply chain защита
MaxPatrol / KUMASIEMПо запросуМониторинг AI

Изменения в инфраструктуре

КомпонентНазначениеСтоимостьТрек АТрек Б
GPU-сервер (A100/H100)On-premise LLM inferenceот 18 млн ₽ОпциональноОпционально
AI Gateway / proxyDLP + routing + logging450 тыс–1,8 млн ₽/годДаДа
Docker + seccompИзоляция AI-агентаOpen-sourceДаДа
VDI (Citrix/RDP)Удалённый десктоп подрядчика4 500–9 000 ₽/польз/мес---Обязательно
NetworkPolicy / firewallОграничение egress AIВстроено в K8sДаДа

Пошаговое внедрение

1

Аудит

Карта данных, оценка рисков, выбор модели развёртывания

Трек А: 1-2 нед | Трек Б: 2-3 нед
2

Инфраструктура

LLM/Gateway, DLP, изоляция контейнеров, VDI для подрядчиков

Трек А: 2-4 нед | Трек Б: 3-6 нед
3

Процессы

CI/CD pipeline, обучение команды, чеклисты, политики

Трек А: 1-2 нед | Трек Б: 2-3 нед
4

Запуск

Пилот на одной команде, rollout, метрики, red teaming

Трек А: 1 нед | Трек Б: 1-2 нед
Итого: Трек А — 5-9 недель, Трек Б — 8-14 недель. Разница обусловлена настройкой VDI, NDA, усиленным логированием и ограниченным scope репозитория для подрядчиков.

Дополнительные шаги для Трека Б

NDA с пунктом о запрете внешних AI

Юридическая защита: подрядчик не имеет права использовать сторонние AI-сервисы для работы с кодом заказчика.

VDI — код не на машине подрядчика

Код остаётся на серверах компании. Подрядчик работает через удалённый десктоп, исключая локальное копирование.

Отдельные AI-endpoints

Усиленное логирование всех AI-взаимодействий подрядчиков. Отдельные rate limits и DLP-правила.

Ограниченный scope репозитория

Подрядчик видит только те модули, над которыми работает. Остальная кодовая база недоступна.

Потоки данных

Трек А: Внутренняя разработка

Корп. ноутбук IDE + AI-плагин Корп. proxy / DLP On-premise LLM Git CI/CD (SAST/SCA) Code Review Deploy

Трек Б: С подрядчиками

Личный ноутбук VDI (корп. среда) IDE + AI (усиленный лог) DLP (усиленный) On-premise LLM Git CI/CD Внутр. ревьюер Deploy
Подрядчик НЕ имеет: код на локальной машине, доступ к AI с личного устройства, полный доступ к репозиторию

Контроль изменений

KPI безопасности AI-разработки

<5%
AI-кода с уязвимостями
Цель: снижение с ~45%
DLP
Заблокированных промптов / мес
Мониторинг аномалий
= human
Code churn AI-кода
Цель: не хуже human
100%
Покрытие обучением
Все разработчики обучены
0
Инциденты с AI / квартал
Цель: ноль инцидентов

Мониторинг аномалий

АномалияДетекцияРеакция
Необычно большой промпт (>10K токенов)Лог-анализ + алертБлокировка + расследование
Запросы вне рабочего времениSIEM-правилоУведомление ИБ
Попытка prompt injectionLakera Guard / regexБлокировка + инцидент
Массовая выгрузка файлов в контекстМониторинг files_in_contextАлерт + ограничение
Обращение к заблокированным AI-сервисамFirewall + DLPБлокировка + уведомление

Нормативная база (справочник)

Закон / стандартТребованиеСанкцияРешает задача
152-ФЗЛокализация ПДн1-18 млн, оборотные до 500 млн1, 2, 3
187-ФЗБезопасность КИИдо 10 лет (274.1 УК)2, 4
Указ №250Ответственность руководителяУвольнение1, 6
ФСТЭК №17/21/239Контроль передачиПредписания2, 3
OWASP LLM Top 1010 рисков LLMДобровольный4, 5
NIST AI RMFУправление рискамиДобровольный1, 6
ISO 42001AI Management SystemСертификация6

Цикл непрерывного улучшения

PDCA-цикл для постоянного совершенствования AI-безопасности. Наведите на сектор для деталей.

Plan

Ежеквартальный пересмотр политик, метрик, DLP-правил

Do

Обновление моделей, инструментов, обучение новичков

Act

Корректировка процессов, новые правила, обновление чеклистов

Check

Red teaming AI-инфраструктуры, анализ инцидентов, бенчмарк

PDCA

Мониторинг законодательства

152-ФЗ, ФСТЭК, КИИ — область активно регулируется. Отслеживайте изменения не реже раза в квартал.

Версионирование методологии

SAID v1.0 → v1.1 → ... Каждое обновление фиксирует изменения в политиках и инструментах.

Оценка компонентов

Сводная таблица ROI

КомпонентСтоимость внедренияЧто защищаетROI
Классификация данных~0 (процесс)Штрафы 1-500 млнВысочайший
On-premise LLM18 млн ₽+ (GPU)Утечки кода и данныхВысокий для КИИ
AI Gateway + DLP450 тыс–1,8 млн ₽/годПДн, секреты в промптахВысокий
Контейнерная изоляция~0 (open-source)Автономные действия AIВысокий
SAST/SCA в CI/CD0–360 тыс ₽/месУязвимости AI-кодаОчень высокий
Обучение (3 модуля)2-3 дня командыHuman errorВысокий
SIEM-интеграцияПо запросуИнциденты, complianceСредний-высокий

Калькулятор стоимости внедрения

Ваш профиль внедрения SAID

-
Бюджет (год 1)
-
Срок внедрения
-
Макс. штраф при бездействии
Приоритетные задачи:

    Начните внедрение SAID

    Помогаем компаниям выстроить безопасный процесс AI-разработки

    Аудит AI-практик

    Оценка текущих рисков, gap analysis, рекомендации по приоритетам

    Внедрение SAID

    Полный цикл: от классификации данных до red teaming AI-инфраструктуры

    Обучение команды

    Тренинги по безопасному AI-кодингу для разработчиков и ревьюеров

    dp.ryabinin@proton.me  |  Telegram