カイル・ウィガース / TechCrunch:
ある研究によると、LLM(大規模言語モデル)に対して、特に曖昧なトピックに関して回答を簡潔にするように指示すると、事実性が損なわれ、ハルシネーション(誤った情報や存在しない情報を生成すること)が悪化する可能性があることが判明しました。つまり、AIチャットボットに簡潔さを求めると、そうでなければ起こらないはずのハルシネーションを起こしやすくなるということです。
techmeme.com
A study finds that asking LLMs to be concise in their answers, particularly on ambiguous topics, can negatively affect factuality and worsen hallucinations (Kyle Wiggers/TechCrunch)
Create attached notes ...
