"Die Neigung von LLMs, Code-Pakete zu "halluzinieren", die nicht existieren, könnte die Grundlage für einen neuen Typ von Lieferkettengriff namens "Slopsquatting" (danke an Seth Larson, Sicherheitsentwickler-in-Residence bei der Python Software Foundation) werden. Ein bekanntes Phänomen Viele Software-Entwickler verwenden heute große Sprachmodelle (LLMs), um bei ihrer Programmierung zu helfen. Und, leider, die bekannte Tendenz von LLMs, Fiktionen auszuspucken und sie selbstbewusst als Fakten darzustellen, wenn sie zu verschiedenen Themen befragt werden, erstreckt sich auch auf das Coden. …"
bsky.app
Hacker & Security News on Bluesky @hacker.at.thenote.app
helpnetsecurity.com
Package hallucination: LLMs may deliver malicious code to careless devs
