Искусственный интеллект «сходит с ума» после обучения на данных, которые сгенерировал он сам
🤔 О чем речь?
Нейросети начинают деградировать после пяти циклов обучения на данных, созданных без участия человека
☝ Что это значит?
Если обучить модель один раз, она сможет распознавать шаблоны по заданным параметрам и на их основе создавать новый контент. Но чем больше собственных результатов она будет выдавать, тем меньше в них окажется новых идей.
А ещё! Важно отделить, какие данные «исходные», а какие «искусственные». Иначе можно включить ошибочную информацию в обучение своего продукта.
Вывод: ИИ «поедает сам себя»: теряет информацию исходных данных и начинает выдавать усредненные результаты.
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Комментарии 3