Las técnicas llamadas "desaprendizaje" se utilizan para hacer que un modelo de IA generativa olvide información específica y no deseada que recopiló de los datos de entrenamiento, como datos personales confidenciales o material con copyright. Pero las técnicas actuales de desaprendizaje son un arma de doble filo: Podrían hacer que un modelo como GPT-4o de OpenAI o Llama 3.1 405B sea mucho menos capaz de responder a preguntas y completar tareas.
techcrunch.com
Making AI models ‘forget’ undesirable data hurts their performance
Create attached notes ...