ИИ может стать жертвой собственных данных, показало исследование
![ИИ может стать жертвой собственных данных, показало исследование](https://www.ferra.ru/imgs/2024/07/25/15/6543632/382a920ec3e439df345462ec24f9f06031e9116c.jpeg)
Ученые обнаружили серьезную проблему в развитии искусственного интеллекта (ИИ): обучение моделей на основе данных, сгенерированных другими ИИ, может привести к их деградации. Это явление получило название «коллапс модели».
![](https://www.ferra.ru/imgs/2024/07/25/15/6543614/59e5f656dd1d5e4607340d11dc1c14d3a3708638.jpg)
В своей работе ученые продемонстрировали, как последующие поколения ИИ-моделей, обученных на данных предыдущих, постепенно теряют способность к обучению. Вместо осмысленного контента они начинают генерировать бессмысленные повторы.
Исследователи предупреждают, что бесконечное обучение ИИ на собственных данных может привести к катастрофическим последствиям. Для предотвращения этого необходимо тщательно фильтровать данные, используемые для обучения моделей.
Одновременно с этим, компании, которые используют для обучения ИИ исключительно человеческие данные, могут получить существенное преимущество в развитии своих технологий.
Ученые подчеркивают важность использования качественных и разнообразных данных для обучения искусственного интеллекта, чтобы избежать негативных последствий.