Исследование: диалоги с ИИ снижают заблуждение о вакцинации против гриппа
Исследование основано на эксперименте с участием 149 студентов университета, которые обсуждали с генеративным ИИ распространенные мифы о вакцинации против гриппа и изменении климата. Всего было проанализировано 298 диалогов человека с нейросетью. Уровень заблуждений и отношение к обсуждаемым темам оценивались до и после общения с чат-ботом по шкале от одного до семи баллов.
Параллельно авторы провели контент-анализ ответов ИИ, оценивая, какие коммуникационные стратегии он использует. Во всех диалогах применялись логически выстроенные объяснения. В 43,6% случаев при обсуждении вакцинации и в 91,9% – при обсуждении климата ИИ апеллировал к научному консенсусу. Ссылки на позиции официальных организаций использовались в 38,9% и 60,4% диалогов соответственно. Призывы к перепроверке информации и элементы эмпатии встречались реже и существенно различались в зависимости от темы.
Результаты эксперимента показали, что после общения с ИИ средний уровень заблуждений о вакцинации против гриппа снизился с 2,93 до 2,43 балла. Одновременно выросло позитивное отношение к вакцинации – с 5,84 до 6,18 балла. В случае изменения климата уровень заблуждений не изменился, однако поддержка климатических мер увеличилась с 5,58 до 5,81 балла.
Отдельно отмечается, что указание на высокую или низкую надежность самого чат-бота не влияло на результаты. Эффект формировался за счет содержания ответов и используемых аргументационных стратегий, а не за счет доверия к ИИ как источнику информации.
Авторы отмечают, что влияние генеративного ИИ на убеждения пользователей неоднородно и во многом зависит от темы обсуждения. Вопросы, связанные с личными медицинскими решениями и повседневным поведением, лучше поддаются корректировке через диалог с ИИ. Напротив, политизированные и общественно поляризованные темы, такие как изменение климата, оказываются более устойчивыми к изменению взглядов и реагируют на такое воздействие заметно слабее.
В практическом плане исследование отражает общий тренд на использование генеративного ИИ как инструмента просвещения и мягкой коррекции дезинформации. Речь идет не о замене экспертных источников, а о дополнительном уровне коммуникации, способном снижать искажение восприятия и повышать восприимчивость к научно обоснованным аргументам.
Потенциальный положительный эффект генеративного ИИ в коррекции заблуждений напрямую зависит от того, на какие источники он опирается при формировании ответов. Если ИИ использует непрофильные или недостаточно проверенные материалы, такие системы могут не снижать, а воспроизводить и усиливать искажения. На этот риск указывает исследование компании SE Ranking, проанализировавшей источники, которые ИИ Google использует при ответах на медицинские запросы, и показавшей, что в таких ответах часто преобладают платформы и медиаресурсы, а не официальные медицинские и государственные источники.