Трансграничный ИИ под прицелом: закон, который душит нейросети медленно, но верно»
Россия подходит к искусственному интеллекту тем же способом, которым раньше подходила к соцсетям и мессенджерам: не выключателем, а плотной регуляторной сетью, где каждая новая норма делает воздух для иностранных сервисов всё более разреженным. Под ударом теперь не только соцсети и платформы, но и сами нейросети — от ChatGPT до Claude и Gemini.
Для ChatGPT и прочих это не обсуждается — их архитектура и бизнес-модель построены на зарубежной инфраструктуре, а значит, формально они оказываются в зоне риска по умолчанию.
Национальный — по сути из той же семьи, но с чуть более широкой трактовкой. «Доверенный» — уже статус, знак допуска: такая модель, после того как её проверят ФСБ и ФСТЭК и убедятся, что данные не утекают за границу, может работать в госсистемах и критической инфраструктуре. Это не просто терминология, а попытка выстроить вертикаль: снизу — любые ИИ, сверху — небольшая группа «правильных» моделей, на которые завяжут всё, что связано с государством и крупным бизнесом.
Во‑первых, законопроект даёт возможность ограничивать или запрещать трансграничные технологии в тех случаях, которые дополнительно определит законодательство.
То есть прямого «баним ChatGPT» в тексте нет, но появляется универсальная кнопка: признать конкретную модель трансграничной и небезопасной — после чего её работа в России либо резко усложняется, либо просто прекращается.
Отдельно стоит маркировка контента, созданного нейросетями. Формально это забота о пользователе: он должен понимать, где текст или изображение сделал человек, а где — модель. На практике это ещё один контур контроля: как только любое ИИ‑содержимое обязано быть помечено, государству проще выстраивать к нему особый режим — от ограничений распространения до прямых санкций против площадок, которые маркировку игнорируют.
Важно, что это не первая серия. Российский интернет уже проходил похожие сценарии: блокировка Telegram, которая из символа свободы связи превратилась в символ гибкости государства — сначала громкая попытка «закрутить», потом не менее показательное «разблокировали»; ограничения для мессенджеров и зарубежных сервисов связи; требования локализации данных и подключения к системам оперативного доступа. Теперь те же подходы переносятся на ИИ.
Отличие в том, что нейросети — это уже не просто каналы коммуникации, а новая инфраструктура работы с информацией: тексты, код, аналитика, принятие решений. Контроль над этим уровнем даёт куда больше рычагов, чем обычная модерация соцсетей.
Парадокс в том, что формально речь идёт о развитии российских технологий. Законопроект обещает «благоприятные условия» для суверенных и национальных моделей: доступ к госзаказу, встраивание в цифровые платформы, приоритет при выборе решений для ведомств и крупных корпораций.
Но фактически это развитие через ограничение конкуренции: чем теснее становится иностранным сервисам, тем проще локальным игрокам занимать освободившиеся ниши. Эксперты уже осторожно говорят: прямого запрета может и не быть, но иностранные нейросети будут постепенно вытесняться с рынка, а их место займут отечественные системы и открытые модели, развернутые на российских серверах.
Для бизнеса это означает необходимость двойного планирования. Всё, что связано с госзаказом, критической инфраструктурой, массовыми сервисами для миллионов пользователей, неизбежно будет подталкиваться к «доверенным» и суверенным решениям.
Любая интеграция с внешними ИИ‑платформами в такой конфигурации превращается в источник регуляторного риска: сегодня это удобный инструмент, завтра — «трансграничная технология» с ограничениями. Частный сектор, ориентированный только на внутреннюю аудиторию, постепенно будет уходить в сторону российских моделей, даже если они уступают по качеству: не из любви к суверенитету, а по соображениям выживания.
Каждый новый шаг — реестр, статус, локализация данных, маркировка контента — по отдельности выглядит технической деталю, но вместе они формируют новую архитектуру рынка: наверху — несколько «правильных» отечественных моделей, вокруг — плотный регуляторный забор, за которым глобальным игрокам оставляют всё меньше кислорода.
Иллюзий тут быть не должно. Российский курс на технологический суверенитет давно обозначен, теперь он просто добрался до следующего уровня — искусственного интеллекта. Вопрос не в том, будут ли условия работы для ChatGPT, Claude и Gemini ухудшаться, а в том, насколько быстро и до какой степени.
И здесь ответ законопроекта прозрачен: не сразу, без эффектного рубильника, но последовательно, до того момента, пока иностранные нейросети в России не превратятся из привычного рабочего инструмента в нишевый, полулегальный продукт для тех, кто готов постоянно жить в серой зоне.