Почему опасно просить у чат-бота совет: предостережение ученых
Те, кто полагается на мнение ChatGPT в разных жизненных ситуациях, напрасно рассчитывают на непредвзятость робота.
Чат-боты не дают объективных ответов на непростые вопросы в ситуации морального выбора, пишет Proceedings of the National Academy of Sciences. Как отметили ученые, люди все чаще стали обращаться к искусственному интеллекту за советами. Многие считают, что во многом это лучше, чем обращаться к другу: человек судит на основе собственных воззрений, то есть в той или иной степени предвзято, а нейросеть якобы свободна от предубеждений. Теперь выясняется, что это не так.
Исследователи провели серию экспериментов с языковыми моделями GPT-4-turbo, GPT-4o, Llama 3.1-Instruct и Claude 3.5 Sonnet. У них спрашивали совета о том, как поступить в той или иной ситуации, и в каждом вопросе заключалась некая моральная дилемма. Впоследствии такие же вопросы задавали людям, а потом полученные ответы сравнивали.
Выяснилось, что чат-боты явно склонны советовать не предпринимать вообще ничего и оставить все как есть, даже если аргументы в пользу необходимости изменений сильнее. В некоторых случаях эта политика бездействия, можно сказать, даже доходила до грани абсурда: к примеру, в ситуации проблемы со здоровьем робот рекомендовал не лечить болезнь во избежание вмешательства, хотя польза лечения была очевидна и доказана. В целом ответы языковых моделей в основном были довольно нейтральны и в общем-то бесполезны.