Эксперты Кембриджа выявили у игрушек с ИИ риски для психики детей
Эксперты из Кембриджского университета изучили поведение игрушек с искусственным интеллектом, пишет New Scientist.
В ходе эксперимента с роботом Gabbo выяснилось, что устройства часто неверно интерпретируют эмоции детей младше шести лет. Гаджеты не могут поддерживать развивающие игры и иногда пугают маленьких пользователей.
В одном из случаев ребенок признался игрушке в любви, но получил неожиданно сухой и формальный ответ. «В качестве дружеского напоминания, пожалуйста, убедитесь, что взаимодействие соответствует предоставленным рекомендациям», – ответил робот малышу.
Специалист по этике ИИ из Оксфордского университета Карисса Велиз отметила полное отсутствие стандартов безопасности для таких товаров. По ее словам, большинство языковых моделей недостаточно надежны для использования уязвимыми группами населения, к которым относятся дети.
Производители утверждают, что используют фильтры для защиты от вредного контента, однако OpenAI отрицает официальное сотрудничество с создателями детских товаров. Власти Британии пока не выработали четких правил регулирования этой быстрорастущей сферой.
Как писала газета ВЗГЛЯД, компания OpenAI внедрила в ChatGPT инструменты родительского контроля после смерти американского подростка.
Ранее в «Яндексе» назвали единичным сбоем пугающий ответ умной колонки ребенку о героине мультфильма.
Глава Сбербанка Герман Греф заявил о пагубном влиянии искусственного интеллекта на умственные способности детей.