ChatGPT научился доказывать, что в Интернете кто-то неправ
Споры в Сети
В рамках эксперимента 900 случайных пользователей из США были приглашены участвовать в онлайн-дебатах. Все они сталкивались с вопросами, касающимися острых социальных и политических тем. Например, речь заходила об иммиграции, изменении климата и равноправии. В процессе дебатов нейросеть GPT-4 имела доступ к персональным данным участников, что позволяло ей адаптировать свои аргументы под конкретные убеждения и предпочтения оппонентов. Ученые отметили, что использование именно этих данных значительно увеличивало эффективность аргументации ИИ.
Потенциал злонамеренного использования
Исследование также акцентирует внимание на потенциальных рисках, связанных с использованием больших языковых моделей. Учитывая, что GPT-4 может адаптировать свои ответы в зависимости от личных данных собеседника, существует угроза, что такие технологии могут быть использованы для манипуляции общественным мнением или даже для создания конфликтов. Ученые подчеркивают, что выявленные способности ИИ требуют внимательного и осторожного подхода к разработке и эксплуатации онлайн-площадок для дискуссий.
С учетом того, что нейросети могут находить весьма убедительные аргументы для своих оппонентов, возникает необходимость в установлении этических норм и правил для их использования в общественных дискуссиях. Правда, как именно обеспечить честность и прозрачность в дебатах, если одна сторона может использовать ИИ для манипуляции, ученые однозначно пока сказать не могут.
источник