Flux RSS Techmeme

Une étude révèle que demander aux LLM (grands modèles de langage) d'être concis dans leurs réponses, en particulier sur des sujets ambigus, peut nuire à la factualité et aggraver les hallucinations (Kyle Wiggers/TechCrunch).

Kyle Wiggers de TechCrunch rapporte : Une étude révèle que demander aux grands modèles linguistiques (LLM) de fournir des réponses concises, particulièrement sur des sujets ambigus, peut nuire à la véracité des réponses et aggraver les hallucinations. Il s'avère que demander à un chatbot d'être concis pourrait l'inciter à générer davantage d'hallucinations qu'il ne le ferait autrement.
www.techmeme.com
A study finds that asking LLMs to be concise in their answers, particularly on ambiguous topics, can negatively affect factuality and worsen hallucinations (Kyle Wiggers/TechCrunch)
Create attached notes ...