RSS Slashdot

Каннибалистические ИИ могут рискнуть цифровым "коровьим бешенством" без свежих данных

Новое исследование Университета Райса и Стэнфордского университета раскрывает опасности обучения моделей ИИ только на синтетических, сгенерированных машиной данных. Этот подход, называемый расстройством автофагии моделей (MAD), приводит к ухудшению качества и разнообразия выводов ИИ, подобно болезни коровьего бешенства, где скот поедает инфицированные останки. Исследование показывает, что без свежих, реальных данных мира ИИ модели становятся "самопожирающими", что приводит к деградации выводов. Это явление наблюдается в различных приложениях ИИ, включая генерацию изображений и распознавание рукописного текста. Исследование подчеркивает важность включения свежих, сгенерированных человеком данных в обучение ИИ для предотвращения MAD и обеспечения высококачественных выводов. Исследователи предупреждают о потенциальных последствиях полного доверия ИИ-сгенерированным данным для обучения будущих моделей, подчеркивая необходимость постоянного ввода реальных данных мира. Исследование подчеркивает важную роль свежих данных в поддержании качества и разнообразия выводов ИИ, подчеркивая потенциальные опасности "свинины" ИИ, если это принцип не будет соблюдаться.
favicon
slashdot.org
Cannibal AIs Could Risk Digital 'Mad Cow Disease' Without Fresh Data
Create attached notes ...