Sie müssen bemerkt haben, dass große Sprachmodelle manchmal Informationen generieren, die plausibel erscheinen, aber faktisch nicht genau sind. Die Bereitstellung von ausdrücklicheren Anweisungen und Kontext ist einer der Schlüssel, um solche Halluzinationen von LLM zu reduzieren.
Das gesagt, haben Sie jemals Schwierigkeiten gehabt, ein AI-Modell dazu zu bringen, genau zu verstehen, was Sie erreichen möchten? Vielleicht haben Sie detaillierte Anweisungen gegeben, nur um Ausgaben zu erhalten, die nicht den Erwartungen entsprechen?
dzone.com
How You Can Use Few-Shot Learning In LLM Prompting To Improve Its Performance
Create attached notes ...
