RSS-Hilfe Net Security

Paket-Halluzination: LLMs können bösen Code an sorglose Entwickler liefern

"Die Neigung von LLMs, Code-Pakete zu "halluzinieren", die nicht existieren, könnte die Grundlage für einen neuen Typ von Lieferkettengriff namens "Slopsquatting" (danke an Seth Larson, Sicherheitsentwickler-in-Residence bei der Python Software Foundation) werden. Ein bekanntes Phänomen Viele Software-Entwickler verwenden heute große Sprachmodelle (LLMs), um bei ihrer Programmierung zu helfen. Und, leider, die bekannte Tendenz von LLMs, Fiktionen auszuspucken und sie selbstbewusst als Fakten darzustellen, wenn sie zu verschiedenen Themen befragt werden, erstreckt sich auch auf das Coden. …"
favicon
bsky.app
Hacker & Security News on Bluesky @hacker.at.thenote.app
favicon
helpnetsecurity.com
Package hallucination: LLMs may deliver malicious code to careless devs