Эксперт Корнев: РФ не может отказаться от ИИ в военной сфере, иначе отстанет
Россия уже использует искусственный интеллект в военной сфере, но процесс замедляется из-за отсутствия своих библиотек нейросетей, а также определенного недоверия к высоким технологиям среди некоторых офицеров. Таким мнением в беседе с RTVI поделился военный обозреватель, основатель проекта MilitaryRussia.Ru Дмитрий Корнев.
Внедрение ИИ в российской военной сфере замедляется из-за отсутствия собственных библиотек нейросетей и определенного недоверия некоторых офицеров к высоким технологиям. Таким мнением в беседе с RTVI поделился военный обозреватель, основатель проекта MilitaryRussia.Ru Дмитрий Корнев.
«Россия никуда не денется. Это насущная необходимость сегодняшнего дня — использование искусственного интеллекта в военной сфере. Если мы не будем этого делать, то мы будем заведомо в проигрышной ситуации. Потому что сегодня ИИ используется уже в повседневной работе программистов, в повседневной работе различных программных систем, в работе систем видеоаналитики», — отметил эксперт.По словам Корнева, главная проблема в том, что большинство людей — включая военных руководителей — неверно представляют себе, что такое ИИ, считая, что это «действительно какой-то интеллект, который может что-то захватить, может что-то придумать, что-то сделать».
«Но это не некая сущность, которая сидит где-то в Калифорнии и что-то придумывает. Это просто набор программ. От того, как эти программы будут использоваться и как их будут применять те или иные программисты, и зависит, будет нанесен вред или нет. Другое дело, что большинство программистов используют международно признанные библиотеки таких разработчиков, как OpenAI, Anthropic и других», — пояснил эксперт.
На практике ИИ уже давно встроен в системы видеоаналитики: операторы видят на экране подсвеченные объекты, — это и есть нейросеть в действии. На утилитарном уровне Россия эти технологии уже использует — и отказаться от них не может, подчеркнул собеседник RTVI.
Главная техническая уязвимость — зависимость от западных библиотек программного кода, уточнил Корнев. Такие компании, как OpenAI и Anthropic, создали открытые или платные библиотеки нейросетей, которыми пользуются разработчики по всему миру, напомнил он.
«Если какая-то программа для Генштаба Российской Федерации использует библиотеку американской компании — теоретически возможны определенные риски. Существуют ли такие суверенные библиотеки в России? Не знаю, не уверен. И я даже не уверен, что это возможно, потому что капиталовложения, которые были сделаны в ИИ на Западе, сопоставимы с оборонными бюджетами РФ. Это огромные деньги. Не уверен, что мы способны это делать и не использовать западные библиотеки», — уточнил Корнев.Он отметил, что грамотный программист способен выстроить архитектуру так, чтобы секретные данные не попадали в сторонние модули, — «если он не дурак, то бояться нечего». Но доверия к таким решениям у военного руководства, по словам Корнева, скорее всего, не будет.
«Потому что есть определенные традиции, советские и российские — не доверять решение важных вопросов компьютеру, программе, ИИ. Скорее всего, эти традиции никуда не денутся и будут сохраняться, скажем так, в менталитете российских военных. Хорошо это или плохо — вопрос сложный. Дело в том, что на Западе та же самая дилемма стоит — какие вопросы доверять искусственному интеллекту, а какие не доверять? Но, конечно, это огромный инструмент, очень мощный, который может устроить революцию в военном деле», — добавил собеседник RTVI.На стратегическом уровне сомнения в применении ИИ есть не только у России, но и на Западе, продолжил военный эксперт, добавив, что ключевой юридический вопрос — можно ли программе делегировать право принимать решения о человеческой жизни — пока не решен нигде.
«Технических проблем [с внедрением ИИ] на самом деле нет. Разместить у себя кусок кода, который относится к технологиям искусственного интеллекта, — этим занимается огромное количество компаний, которые занимаются программированием в России и где угодно. Проблема в основном в том, что в этих программных решениях очень много западных кусков кода, западных библиотек, еще каких-то вещей, которые созданы не в России. Так что тут проблема именно обеспечения безопасности, потому что веры в то, что этот код безопасен, не будет никогда», — уточнил он.
Корнев также назвал «огромным прогрессом» включение министра обороны Андрея Белоусова в государственную комиссию по развитию ИИ. «Это свидетельство того внимания, которое Министерство обороны уделяет развитию искусственного интеллекта», — подчеркнул военный эксперт.
26 февраля по указу президента России Владимира Путина была утверждена комиссия по вопросам развития технологий ИИ. В ее состав вошли: вице-премьер Дмитрий Григоренко, замглавы администрации президента Максим Орешкин, министр обороны Андрей Белоусов, директор ФСБ Александр Бортников, губернатор Подмосковья Андрей Воробьев, глава Сбербанка Герман Греф, помощник президента Алексей Дюмин, спецпредставитель президента по вопросам цифрового и технологического развития Дмитрий Песков, глава Минэкономразвития Максим Решетников, глава Минфина Антон Силуанов, мэр Москвы Сергей Собянин, экс-руководитель «Яндекса» Тигран Худавердян и глава Минцифры Максут Шадаев.
США и скандал с использованием ИИ в оборонной сфере
В конце февраля Министерство обороны США внесло Anthropic — разработчика нейросети Claude — в список поставщиков, представляющих риск для национальной безопасности. Поводом стал отказ компании предоставить Пентагону право неограниченного использования своих разработок.Контракт с ведомством стоил 200 млн долларов, однако Anthropic настаивала на жестких ограничениях: никакой массовой слежки за американскими гражданами и никакого полностью автономного летального оружия без участия человека в принятии решений. Пентагон занял противоположную позицию, а заместитель министра обороны Эмил Майкл обвинил главу Anthropic Дарио Амодеи в стремлении «лично контролировать армию» и угрозе нацбезопасности.
Президент США Дональд Трамп потребовал от всех ведомств немедленно прекратить использование продуктов компании, назвав Anthropic «радикально левой», — хотя незадолго до этого именно ее нейросеть Claude Sonnet, по данным The Wall Street Journal, применялась Центральным командованием США на Ближнем Востоке при подготовке авиаудара по Ирану. Она также стала первой нейросетью, использованной в ходе секретной операции американского спецназа по захвату президента Венесуэлы Николаса Мадуро.
На смену Anthropic пришла OpenAI, заключившая с Пентагоном новое соглашение. Глава компании Сэм Альтман заявил, что договорился о двух принципиальных ограничениях: запрете на массовую слежку внутри страны и требовании человеческого контроля над применением силы.
Однако эксперты, опрошенные изданием The Verge, усомнились в реальном содержании этих договоренностей. Ключевая проблема — формулировка «любое законное применение»: за последние десятилетия американские власти существенно расширили трактовку этого понятия, включив в него программы массовой слежки, раскрытые Эдвардом Сноуденом еще в 2013 году. Anthropic, для сравнения, добивалась запрета на определенные действия вне зависимости от их правового статуса.
Параллельно Пентагон ускоряет переговоры о переводе систем на модели OpenAI и Google Gemini, а стартап xAI Илона Маска уже заключил контракт на использование Grok в секретных системах ведомства — хотя эксперты считают, что полноценной заменой Claude он стать не сможет.