La tendencia de los LLM a 'alucinar' paquetes de código que no existen podría convertirse en la base de un nuevo tipo de ataque de cadena de suministro denominado 'slopsquatting' (gracias a Seth Larson, desarrollador de seguridad residente en la Fundación de Software de Python). Un fenómeno conocido Muchos desarrolladores de software hoy en día utilizan modelos de lenguaje grandes (LLM) para ayudar con su programación. Y, desafortunadamente, la tendencia conocida de los LLM a escupir fabricaciones y presentarlas con confianza como hechos cuando se les hacen preguntas sobre diversos temas se extiende a la codificación. …
bsky.app
Hacker & Security News on Bluesky @hacker.at.thenote.app
helpnetsecurity.com
Package hallucination: LLMs may deliver malicious code to careless devs
Create attached notes ...
