X
Меню сайта
GreenB
Войдите с помощью одной из соцсетей
Или с помощью нашего сайта
Зарегистрироваться Войти
Обратная связь

Обратная связь

Испорченный телефон в обучении ИИ

В последнее время все чаще слышу о том, что искусственный интеллект уже умеет учиться на собственных ошибках и создавать что-то новое.

Но оказывается, что большие языковые модели могут привести не только к развитию ИИ, но и к его деградации.

Британские и канадские исследователи изучили влияние на последующие поколения моделей, которые обучаются на текстах от ChatGPT. Оказалось, что рекурсивная природа обучения может привести к краху модели.
 

Специалисты предупреждают, что это является угрозой, аналогичной катастрофической амнезии и искажению данных.
Кроме того, авторы подчеркивают, что крах модели может привести к обширному загрязнению данных, если использовать масштабные проходы по веб-сайтам.

Исследователь Илья Шумаилов из Оксфордского университета предупреждает о том, что ошибки накапливаются и в конечном итоге заставляют модели, обучающиеся на созданных данных, еще больше ошибаться в восприятии реальности.

Член команды Росс Андерсон из Университета Кембриджа и Университета Эдинбурга сравнил это снижение качества на примере музыкального продукта. 
"Если вы обучите музыкальную модель Моцарта, — написал он в своем личном блоге, — то можете ожидать результатов, похожих на Моцарта, но без исры. И если [эта версия] обучит следующее поколение, и так далее, то как будет звучать пятое или шестое поколение?"

Также он предупредил, что "использование созданного моделью контента при обучении вызывает необратимые дефекты. Хвосты исходного распределения контента исчезают. Через несколько поколений текст становится мусором".
Конечно, это очень печально, что такие проблемы возникают даже в сфере искусственного интеллекта.

Но я думаю, это как раз то, что делает эту технологию похожей на игру в моем детстве – испорченный телефон.

Ведь если специлисты не будут следить за качеством обучающих данных, то со временем результаты работы ИИ будут все хуже и хуже.

Поэтому они должны принимать меры для различия контента, созданного искусственным интеллектом, от контента, созданного человеком, и конечно сохранять исходноый контент для будущих обучающих целей.
 

🔥
0
🚀
0
0
👎
0
Новое на сайте