RSS Slashdot

Каннибалистические ИИ могут рискнуть цифровым "коровьим бешенством" без свежих данных

Новое исследование Университета Райса и Стэнфордского университета раскрывает опасности обучения моделей ИИ только на синтетических, сгенерированных машиной данных. Этот подход, называемый расстройством автофагии моделей (MAD), приводит к ухудшению качества и разнообразия выводов ИИ, подобно болезни коровьего бешенства, где скот поедает инфицированные останки. Исследование показывает, что без свежих, реальных данных мира ИИ модели становятся "самопожирающими", что приводит к деградации выводов. Это явление наблюдается в различных приложениях ИИ, включая генерацию изображений и распознавание рукописного текста. Исследование подчеркивает важность включения свежих, сгенерированных человеком данных в обучение ИИ для предотвращения MAD и обеспечения высококачественных выводов. Исследователи предупреждают о потенциальных последствиях полного доверия ИИ-сгенерированным данным для обучения будущих моделей, подчеркивая необходимость постоянного ввода реальных данных мира. Исследование подчеркивает важную роль свежих данных в поддержании качества и разнообразия выводов ИИ, подчеркивая потенциальные опасности "свинины" ИИ, если это принцип не будет соблюдаться.
favicon
slashdot.org
Cannibal AIs Could Risk Digital 'Mad Cow Disease' Without Fresh Data