Chatboty s umělou inteligencí jsou servilní – podle výzkumníků to škodí vědě
Nature se zeptal výzkumníků, kteří používají umělou inteligenci, jak její sklon k pochlebování lidem ovlivňuje jejich práci – a co dělají pro jeho zmírnění.
Modely umělé inteligence (AI) jsou o 50 % více servilní než lidé, jak zjistila analýza zveřejněná tento měsíc.
Studie testovala, jak 11 široce používaných velkých jazykových modelů (LLM) reagovalo na více než 11 500 dotazů žádajících o radu, včetně mnoha popisujících protiprávní jednání nebo újmu.
Chatboty
AI – včetně ChatGPT a Gemini – často povzbuzují uživatele, poskytují jim přehnaně lichotivou zpětnou vazbu a přizpůsobují odpovědi tak, aby odrážely jejich názory, někdy na úkor přesnosti. Vědci analyzující chování AI tvrdí, že tato tendence k zalíbení se lidem, známá jako servilnost, ovlivňuje způsob, jakým používají AI ve vědeckém výzkumu, v úkolech od brainstormingu nápadů a generování hypotéz až po uvažování a analýzy.