Компания Cyberhaven, специализирующаяся на защите корпоративных данных, в 2025 году опубликовала отчёт, который должен заставить каждого CISO пересмотреть свою стратегию. Анализ миллионов запросов к AI-инструментам показал: 35% всех данных, отправляемых сотрудниками в генеративные AI-системы, классифицируются как чувствительные или конфиденциальные.
Для понимания масштаба: если в компании с 1000 сотрудников каждый делает хотя бы 10 запросов к AI в день (а реальные цифры часто выше), то 3500 запросов ежедневно содержат данные, которые не должны покидать периметр организации. За месяц это более 100 000 потенциальных утечек. За год — более миллиона.
Особенно тревожна динамика. В 2023 году доля чувствительных данных в AI-запросах составляла около 11%. К 2025 году она выросла до 35% — более чем трёхкратный рост. Почему?
Ответ кроется в эволюции использования AI. На начальном этапе сотрудники экспериментировали: задавали общие вопросы, просили объяснить концепции, генерировали шаблонные тексты. По мере роста доверия к инструментам задачи становились всё более специфичными и связанными с реальной работой. Разработчик перестал спрашивать «как написать REST API» и начал вставлять реальный код продукта для рефакторинга. Маркетолог перестал просить «напиши пресс-релиз» и стал загружать реальные данные о продажах для анализа.
Этот переход от экспериментов к рабочему применению — естественный и неизбежный. Но он означает, что объём чувствительных данных, попадающих в AI-системы, будет только расти. И если компания не контролирует этот процесс сегодня, завтра будет поздно.
73% использования AI-инструментов в корпоративной среде происходит через личные аккаунты сотрудников — так называемый shadow AI. Это означает, что компания не только не контролирует, какие данные уходят вовне, но даже не знает о факте использования AI-инструментов.
Shadow AI — прямой аналог shadow IT, который десятилетиями был головной болью служб информационной безопасности. Но есть принципиальное отличие: shadow IT обычно означал использование несанкционированных SaaS-сервисов для хранения файлов или управления проектами. Shadow AI подразумевает активную передачу данных во внешнюю систему для обработки. Каждый запрос к ChatGPT через личный аккаунт — это фактическая отправка данных третьей стороне без какого-либо договора об обработке данных, без NDA, без SLA.
Почему сотрудники используют личные аккаунты? Причины прозаичны: корпоративная лицензия ограничена (или её вовсе нет), личный аккаунт работает быстрее, нет желания ждать согласования от ИТ-отдела, или сотрудник просто не осведомлён о существовании корпоративного решения. В результате 73% AI-использования — слепое пятно для безопасности.
Данные Cyberhaven позволяют разложить структуру утечек по категориям, и картина получается весьма конкретной.
Исходный код — 18.7%. Самая большая категория. Разработчики вставляют фрагменты кода (а иногда целые файлы) в AI-ассистенты для отладки, рефакторинга, генерации тестов. В этом коде могут содержаться проприетарные алгоритмы, бизнес-логика, API-ключи, внутренние URL-адреса и другая чувствительная информация. Один скопированный файл может раскрыть архитектуру всего продукта.
Данные R&D — 17.1%. Исследовательские и конструкторские данные: результаты экспериментов, формулы, патентные заявки, технические спецификации. Для технологических компаний это — ядро конкурентного преимущества, и его утечка может стоить годы работы.
Данные о продажах и клиентах — 10.7%. Списки клиентов, условия контрактов, ценовые стратегии, pipeline продаж. Менеджеры используют AI для анализа данных и подготовки презентаций, не задумываясь о том, что эти данные покидают периметр компании.
Оставшаяся часть включает HR-данные (зарплаты, performance review), финансовые отчёты, юридические документы и внутренние коммуникации. Практически ни одна функция компании не избежала утечек через AI.
Cyberhaven классифицирует AI-платформы по уровню риска в зависимости от их политик обработки данных, условий использования и наличия корпоративных гарантий. Результат: 83.8% всех чувствительных данных отправляется на платформы с высоким уровнем риска — те, которые могут использовать данные для обучения моделей, не предоставляют гарантий удаления, или не имеют корпоративных соглашений о защите данных.
Это не значит, что все AI-платформы одинаково опасны. Enterprise-версии большинства крупных AI-провайдеров предлагают гарантии: данные не используются для обучения, хранятся в определённой юрисдикции, удаляются по запросу. Но enterprise-версии стоят дороже, требуют согласования с юристами и ИТ — и поэтому сотрудники выбирают бесплатные или персональные варианты. В результате данные уходят именно туда, где защита минимальна.
Объём использования AI-инструментов в корпоративной среде вырос на 485% за год. Это не просто рост — это экспоненциальное увеличение. И каждый процент роста использования означает пропорциональный рост объёма потенциальных утечек.
Важно понимать: этот рост не замедляется. Каждая новая модель, каждый новый инструмент, каждый позитивный кейс использования AI привлекает ещё больше сотрудников. Компании, которые сегодня не имеют политики использования AI, через год обнаружат, что объём утечек вырос ещё в несколько раз — без какого-либо контроля с их стороны.
Многие компании считают, что покупка корпоративной лицензии на AI-инструмент закрывает вопрос безопасности. Это опасное заблуждение по нескольким причинам.
Во-первых, корпоративная лицензия не устраняет shadow AI. Даже если компания купила ChatGPT Enterprise, ничто не мешает сотруднику использовать личный аккаунт Claude, Gemini или десятка других AI-инструментов. Без DLP-системы, отслеживающей все AI-обращения, shadow AI продолжит существовать.
Во-вторых, корпоративная версия обычно покрывает один инструмент. Но рынок AI-ассистентов фрагментирован: для кода — Copilot, для текстов — ChatGPT, для изображений — Midjourney, для анализа данных — специализированные инструменты. Каждый из них — потенциальный канал утечки, и корпоративная лицензия на один не защищает от остальных.
В-третьих, даже в рамках корпоративной версии необходимы политики: какие данные можно отправлять, какие — нет, как классифицировать информацию перед отправкой. Без чётких правил даже защищённый канал становится каналом утечки.
Защита от утечек через AI требует комплексного подхода, объединяющего технологии, политики и обучение.
Если данные — это новая нефть, то AI-инструменты — это новый трубопровод, по которому эта нефть утекает за пределы компании. 35% чувствительных данных в каждом запросе, 73% использования через неконтролируемые каналы, рост на 485% в год — эти цифры описывают не гипотетическую угрозу, а текущую реальность.
Компании, которые игнорируют проблему утечек через AI, играют в русскую рулетку с собственной интеллектуальной собственностью. И с каждым месяцем в барабане становится всё больше заряженных патронов. Контроль над AI-утечками — не ограничение инноваций, а условие их устойчивости.
SAID включает правило «Не кормить модель секретами»: любые данные, отправляемые в AI-инструменты, должны проходить классификацию и фильтрацию. Методология предусматривает создание корпоративного AI-портала с встроенным DLP, политику допустимого использования AI и систему мониторинга shadow AI. Цель — дать сотрудникам удобный доступ к AI без риска утечки конфиденциальных данных.