532

В России выросли корпоративные утечки через ChatGPT

Сотрудники всё чаще отправляют рабочие файлы в публичные ИИ-сервисы, а правила в компаниях не успевают за привычкой.

В России выросли корпоративные утечки через ChatGPT
По оценке исследователей, в 2025 году российские компании стали заметно чаще «сливать» рабочие данные в публичные ИИ-сервисы — от таблиц и презентаций до фрагментов кода. Проблема не в нейросетях, а в том, что они стали удобным обходным каналом, который многие не контролируют.


Поводом стала аналитика группы компаний «Солар», которая изучала сетевой трафик организаций и пыталась измерить, сколько корпоративной информации уходит в общедоступные нейросети. В выводах фигурирует резкий рост: объём данных, которые сотрудники отправляют в такие сервисы, в 2025 году оказался в десятки раз выше, чем годом ранее. Одновременно в значительной доле компаний до сих пор нет формализованных правил работы с ИИ-инструментами — то есть никто заранее не объяснил, какие файлы и фрагменты переписки отправлять нельзя и почему.

Механика утечек здесь обычно не выглядит как «взлом». Сотруднику нужно быстро: сократить отчёт, сравнить условия договора, сделать выжимку из презентации, проверить кусок кода, подготовить письмо клиенту. Публичный бот решает задачу за минуты, и дальше включается бытовая логика: раз инструмент помогает, значит им можно пользоваться. Проблема в том, что у многих сервисов условия хранения и использования данных устроены сложнее, чем кажется, а переданный текст перестаёт быть «внутренним документом» в привычном смысле.

Что именно утекает чаще всего? По описанию исследователей, это стратегические и финансовые презентации, таблицы с бизнес-показателями, фрагменты исходного кода, внутренняя переписка, техническая документация и данные о клиентах. Даже если убрать персональные данные, остаётся конкурентная информация: цены, планы, логика процессов, архитектура систем. Именно она ценится при промышленном шпионаже и помогает атакующим быстрее подбирать сценарии социальной инженерии.

Для служб информационной безопасности это выглядит как новый класс «теневого ИТ»: сервисы используются вне согласованных контуров, часто с личных устройств и через домашние аккаунты. Традиционные запреты уровня «не подключайте флешки» здесь не работают — потому что никто ничего физически не выносит, данные уходят через привычный веб-трафик. Поэтому компании всё чаще говорят о контроле канала: фильтровать, что именно отправляется на внешние платформы, и в каких случаях это блокируется автоматически.

Параллельно растёт и другая часть риска — использование генеративного ИИ злоумышленниками. Суть не в том, что «ИИ стал хакером», а в ускорении рутинных этапов атаки: поиск слабых мест, генерация персонализированных писем, адаптация текста под конкретную компанию, подготовка правдоподобных легенд для звонков. Там, где раньше требовались часы ручной подготовки, теперь достаточно минут. Это повышает плотность атак и снижает порог входа для менее опытных групп.

Реальные инциденты показывают, что «ошибка пользователя» случается не только у рядовых сотрудников. В 2023 году в Samsung публично обсуждали случай, когда работники полупроводникового подразделения использовали ChatGPT для задач с кодом и заметками, и компании пришлось вводить ограничения на использование внешних ботов. Похожая логика работает и в госструктурах: даже если документ не имеет грифа секретности, он может быть предназначен для ограниченного круга, а загрузка в публичный сервис превращает его в риск.

Методология таких оценок обычно строится вокруг сетевой видимости: прокси-шлюзы и средства контроля трафика фиксируют обращения к доменам ИИ-сервисов и содержимое запросов по паттернам утечек — ключевые слова, фрагменты таблиц, номера договоров, куски кода, внутренние адреса. Это не «чтение мыслей», а попытка поймать типовые следы корпоративных документов в местах, где им быть не должно. Ограничение у подхода тоже есть: если сотрудник уносит данные на личный телефон и использует мобильный интернет, часть каналов может выпадать из контроля.

Правовой вакуум, о котором говорят эксперты, на практике означает простую вещь: в регламентах и должностных инструкциях не прописано, что считать допустимым использованием ИИ. Сотрудник не понимает границы, руководитель не понимает риски, а ИБ видит проблему уже постфактум. В итоге даже базовая гигиена — не вставлять в запросы персональные данные, не отправлять документы целиком, не загружать сканы с подписями и печатями — превращается в «совет», а не в правило.

Самый частый сценарий — не злой умысел, а «оптимизация процесса». Например, бухгалтерия просит ИИ «разобрать» акт сверки, юристы — упростить договор, маркетинг — переписать коммерческое предложение, разработчики — объяснить ошибку из логов. В каждом случае в запросах оказываются имена, суммы, номера счетов, структура внутренних систем, иногда даже токены доступа, если их случайно вставили вместе с кодом. Для атакующего это подарок: из разрозненных кусочков можно собрать карту организации.

Что может сделать компания, не превращая тему в тотальный запрет. Во-первых, разделить задачи: публичные ИИ-сервисы — только для обезличенных примеров и общих формулировок; всё, что касается клиентов, финансов, контрактов, инцидентов и кода, — либо через внутренние инструменты, либо через специально одобренные корпоративные версии с понятными условиями хранения данных. Во-вторых, настроить технические перила: DLP-политики на уровне веб-шлюза, контроль выгрузок, списки разрешённых сервисов, логирование и регулярный разбор кейсов, где сотрудники «перешли границу» неосознанно. В-третьих, добавить ответственность руководителей подразделений: если команда использует ИИ в работе, это должно быть оформлено как процесс, а не как личная привычка.

На горизонте ближайших лет риск будет расти не только из-за популярности ChatGPT или Gemini. Генеративные модели всё чаще встраиваются прямо в офисные пакеты, почтовые клиенты и мессенджеры, то есть «канал утечки» растворяется в привычных кнопках интерфейса. Чем меньше отдельности у инструмента, тем труднее объяснить сотруднику, что он делает не «поиск», а фактическую передачу данных третьей стороне.

ИЗНАНКА

Генеративные модели стали для офисов тем же, чем когда-то стала личная почта для рабочих документов: сначала «быстро и удобно», потом — «почему это утекло». Разница лишь в том, что нейросети умеют превращать любой файл в ответ за секунды, а значит соблазн отправить «хотя бы кусочек» будет только расти.

Фото: соцсети/ИЗНАНКА.

Читайте, ставьте лайки, следите за обновлениями в наших социальных сетях и присылайте материалы в редакцию.

ИЗНАНКА — другая сторона событий.





Улыбка может стать причиной финансовых потерь: за год зафиксировано 43 случая ...

/ / Интересное Автор: Денис Иванов

А долги достигли триллиона рублей

/ / Интересное Автор: Дмитрий Зорин

Препарат MVA-BN, разработанный компанией Bavarian Nordic, получил официальное ...

/ / Интересное Автор: Дарья Никитская