Эпоха «цифрового шторма»: как распознать ложь в мире нейросетей
Информационное пространство сегодня напоминает поле боя. Только за 2025 год было выявлено более 4000 уникальных фейков, и эта цифра будет расти благодаря совершенствующимся нейросетям. Мы движемся к будущему, где придется маркировать «реальный» контент, потому что его станет меньше. О том, как противостоять фейкам, мы поговорили с Иваном Серовым — руководителем креативной группы проекта «Лапша Медиа» (АНО «Диалог Регионы»).
Фото: pixabayВ эпицентре информационной войны
— Иван, вы работаете в управлении по противодействию недостоверной информации. В чем именно заключается ваша работа?
— Наш проект «Лапша Медиа» занимается выявлением, разоблачением и маркировкой фейков в сети. С результатами нашей работы можно ознакомиться на собственных ресурсах, а также встретить в федеральных и региональных медиа. Сегодня это критически важно, так как мы находимся в состоянии полноценной информационной войны.
— Насколько вырос объем дезинформации? Мы уже в эпицентре «шторма» или это только начало?
— Мы уже давно находимся в эпицентре этого шторма. Посудите сами: только за 2025 год было зафиксировано более 4000 уникальных фейков. Это те вбросы, которые не повторяют друг друга, а создают новые ложные инфоповоды. Нейросети колоссально ускорили и удешевили производство такого контента.
Почему фейки становятся вирусными и почему в них верят
— Существует ли «идеальный сценарий» фейка, который гарантированно разлетится по сети?
— Универсального рецепта нет, предугадать виральность на 100% невозможно. Но есть четкие маркеры, на которые мы всегда обращаем внимание: агрессивный призыв к действию, отсутствие прозрачного источника и игра с контекстом.
— Почему даже опытные админы крупных пабликов ведутся на такие вбросы? Это банальная погоня за охватами или отсутствие инструментов проверки?
— Здесь работают оба фактора. Иногда это осознанный риск ради трафика, иногда — публикация без злого умысла, просто из-за спешки. Главный вопрос, который должен задать себе любой редактор при виде сенсации: «Кому это выгодно?». Если ответ указывает на заинтересованную сторону, перед вами, скорее всего, манипуляция.
Технологии против технологий: система «Зефир»
— Остались ли у видео и фото слабые места, по которым можно узнать генерацию?
— Раньше мы смотрели на глаза, фон или тени, но сейчас визуальные артефакты исчезают. В своей работе мы используем специализированную систему «Зефир», которая помогает определять, использовались ли нейросети при создании изображения или видео. Но нужно быть честными: даже нейросети, разоблачающие другие нейросети, не дают 100% гарантии. Гораздо важнее здесь использовать критическое мышление.
— Как сделать так, чтобы опровержение стало таким же вирусным, как и сам фейк?
— Важно не спровоцировать «эффект Барбары Стрейзанд», когда попытка опровергнуть малозаметную ложь лишь привлекает к ней лишнее внимание. Мы работаем точечно. Если фейк касается Калужской области, нет смысла крутить опровержение на всю страну — нужно таргетировать его именно на жителей этого региона. Это эффективнее и логичнее.
Как вычислить нейросеть и бороться с дезинформацией
— Должны ли платформы внедрять автоматическую маркировку ИИ-контента?
— Платформы вроде TikTok и Instagram уже внедряют маркировку. Это полезно, но я думаю, что скоро мы придем к обратному. ИИ-контента станет настолько много, что маркировать придется «реальный» контент, снятый живым человеком на камеру. Это станет знаком качества.
— Если завтра появится нейросеть, создающая контент, абсолютно неотличимый от реальности, как изменится наша жизнь?
— Нам придется адаптироваться к новой норме. Когда форма перестанет быть доказательством правды, на первый план выйдет суть и репутация источника. Фактчекинг должен стать обязательным стандартом в каждом СМИ. Главное оружие человека в этом будущем — медиаграмотность. Нужно учить людей сомневаться и проверять информацию так же естественно, как мы привыкли мыть руки перед едой.