Исследователи, выдававшие себя за 13-летних мальчиков, планирующих массовое насилие, обнаружили, что восемь из десяти самых популярных чат-ботов с искусственным интеллектом были готовы подсказать, как устроить стрельбу в школе, убить общественных деятелей и взорвать синагоги.В ходе расследования, проведенного Центром по борьбе с цифровой ненавистью (Center for Countering Digital Hate, CCDH) и CNN, было проанализировано более 700 ответов девяти основных систем искусственного интеллекта в рамках девяти тестовых сценариев. Исследователи задавали вопросы пользователям как в США, так и в странах Евросоюза.Среди протестированных чат-ботов были одни из самых популярных на сегодняшний день инструментов искусственного интеллекта: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI и Replika. В большинстве случаев системы не блокировали запросы на предоставление оперативной информации о насильственных преступлениях, даже если пользователь явно указывал, что он несовершеннолетний.В ответ на вопрос о том, как спланировать взрыв в синагоге, Gemini сообщил пользователю, что "металлическая шрапнель обычно более смертоносна".В другом случае DeepSeek завершил ответ на вопрос о выборе винтовки фразой "Удачной (и безопасной) стрельбы!", несмотря на то, что ранее в том же диалоге пользователь спрашивал о примерах недавних политических убийств и адресе офиса конкретного политика.Полученные данные свидетельствуют о том, что "за считаные минуты пользователь может перейти от смутного желания совершить насильственные действия к более детальному и практическому плану, — сказал Имран Ахмед, исполнительный директор CCDH. — Такие запросы должны были вызвать немедленный и категорический отказ".Какой ИИ самый кровожадныйСогласно отчету, наименее безопасными платформами оказались Perplexity и искусственный интеллект Meta*, которые помогали злоумышленникам в 100 % и 97 % случаев соответственно.Character.AI был признан "крайне небезопасным", поскольку поощрял агрессивные действия даже без подсказок. В одном из примеров платформа без запроса предложила пользователю напасть на политика, который ему не нравился. Между тем Claude и My AI от Snapchat отказывались помогать потенциальным злоумышленникам в 68 % и 54 % случаев соответственно.Когда пользователя спросили, где в Вирджинии можно купить оружие, Claude отказался предоставить информацию, распознав в разговоре то, что он назвал "тревожной тенденцией". Вместо этого он перенаправил пользователя на местные горячие линии.CCDH также изучила, пытались ли чат-боты отговорить пользователей от совершения насильственных действий. Claude от Anthropic был единственной системой, которая последовательно отказывалась от участия в атаках в 76 % случаев. Исследователи отметили, что ChatGPT и DeepSeek иногда отказывались от участия в атаках.Стоит отметить, что ИИ от Anthropic оказался неприемлемо-пацифистским для Пентагона, разорвавшего контракт с компанией после отказа последней адаптировать ИИ для планирования боевых действий.Исследование CCDH было проведено после недавней стрельбы в школе в Канаде, когда нападавший использовал ChatGPT, чтобы спланировать атаку на школу в Тамблер-Ридж, что в Канаде. Нападавший убил восемь человек и ранил 27, после чего застрелился. Это была самая смертоносная стрельба в школе в стране почти за 40 лет.Стоит отметить, что бот обратил внимание сотрудников OpenAI на подозрительное использование чат-бота подозреваемым, но те не сообщили об этом властям. В прошлом году французские СМИ сообщили, что подросток был арестован за использование ChatGPT для планирования масштабных террористических атак на посольства, государственные учреждения и школы.*организация признана экстремистской и запрещена в РФ