Кайл Виггерс / TechCrunch: Исследование показало, что просьба к большим языковым моделям (LLM) давать краткие ответы, особенно на неоднозначные темы, может негативно сказаться на достоверности информации и усугубить галлюцинации. Оказывается, требование к чат-боту на основе ИИ быть кратким может привести к тому, что он будет генерировать больше галлюцинаций, чем обычно.
techmeme.com
A study finds that asking LLMs to be concise in their answers, particularly on ambiguous topics, can negatively affect factuality and worsen hallucinations (Kyle Wiggers/TechCrunch)
Create attached notes ...
