Ayuda de RSS para Seguridad de la Red

Alucinación de paquetes: LLM pueden entregar código malicioso a desarrolladores descuidados

La tendencia de los LLM a 'alucinar' paquetes de código que no existen podría convertirse en la base de un nuevo tipo de ataque de cadena de suministro denominado 'slopsquatting' (gracias a Seth Larson, desarrollador de seguridad residente en la Fundación de Software de Python). Un fenómeno conocido Muchos desarrolladores de software hoy en día utilizan modelos de lenguaje grandes (LLM) para ayudar con su programación. Y, desafortunadamente, la tendencia conocida de los LLM a escupir fabricaciones y presentarlas con confianza como hechos cuando se les hacen preguntas sobre diversos temas se extiende a la codificación. …
favicon
bsky.app
Hacker & Security News on Bluesky @hacker.at.thenote.app
favicon
helpnetsecurity.com
Package hallucination: LLMs may deliver malicious code to careless devs
Create attached notes ...