Утечки данных через ИИ-сервисы выросли в 30 раз
Объём утечек данных российских компаний через публичные ИИ-сервисы в 2025 году увеличился в 30 раз. ИИ-эксперт Станислав Ежов уверен, что подобные утечки данных — это результат отсутствия контроля.
Статистика основана на внутренних факторах — на том, что сотрудники загружают в ChatGPT и аналогичные сервисы рабочие документы. Об этом сообщили в официальном телеграм-канале УБК МВД России.
Аналитики изучили трафик 150 компаний и выяснили, что около 60% организаций не имеют формализованных правил работы с ИИ. Из-за этого сервисы стали новым, незаметным каналом утечек, который критично влияет на безопасность.
«Нейросети остаются полезным инструментом, но без чётких правил и технического контроля они становятся источником риска, а иногда и точкой входа для злоумышленников», — отметили в ведомстве.
В «Группе Астра», крупнейшем разработчике ИИ-решений и вендоре B2B-решений, прокомментировали рост ИИ-утечек.
«По факту, 30-кратный рост утечек через публичные ИИ — это закономерный результат отсутствия контроля. Компании дают сотрудникам, например, ChatGPT, а потом удивляются, куда ушли контракты и клиентские базы. Когда мы строим суверенные ИИ-контуры для банков и госструктур, то первый шаг — закрыть доступ к внешним сервисам и развернуть изолированные модели внутри периметра. Это базовая гигиена, при которой данные не покидают контур, аудит прозрачен и риски обнуляются», — говорит Станислав Ежов, директор по ИИ «Группы Астра».