La tendance des grands modèles linguistiques (LLM) à « halluciner » des paquets de code inexistants pourrait devenir la base d'un nouveau type d'attaque de la chaîne d'approvisionnement, baptisée « slopsquatting » (terme inventé par Seth Larson, développeur sécurité en résidence à la Python Software Foundation). Un phénomène connu. De nombreux développeurs de logiciels utilisent aujourd'hui des grands modèles linguistiques (LLM) pour les aider dans leur programmation. Malheureusement, la tendance connue des LLM à inventer des informations et à les présenter avec assurance comme des faits lorsqu'on leur pose des questions sur divers sujets s'étend à la programmation. …
bsky.app
Hacker & Security News on Bluesky @hacker.at.thenote.app
helpnetsecurity.com
Package hallucination: LLMs may deliver malicious code to careless devs
