카일 위거스 / 테크크런치:
연구 결과에 따르면, LLM(대규모 언어 모델)에게 답을 간결하게 말하도록 요구하는 것은, 특히 모호한 주제에 대해 답변할 때 사실성에 부정적인 영향을 미치고 환각(hallucination) 현상을 악화시킬 수 있습니다. 즉, AI 챗봇에게 간결하게 말하라고 지시하는 것이, 그렇지 않을 때보다 더 많은 환각을 일으킬 수 있다는 것이 밝혀졌습니다.
techmeme.com
A study finds that asking LLMs to be concise in their answers, particularly on ambiguous topics, can negatively affect factuality and worsen hallucinations (Kyle Wiggers/TechCrunch)
Create attached notes ...
