As chamadas técnicas de "desaprendizagem" são usadas para fazer com que um modelo de IA gerativa esqueça informações específicas e indesejadas que ele aprendeu com os dados de treinamento, como dados privados sensíveis ou material protegido por direitos autorais. No entanto, as técnicas de desaprendizagem atuais são uma espada de dois gumes: elas podem tornar um modelo como o GPT-4o da OpenAI ou o Llama 3.1 405B da Meta muito menos capaz de responder a perguntas ou completar tarefas, especialmente se as informações esquecidas forem relevantes para a tarefa em questão.
techcrunch.com
Making AI models ‘forget’ undesirable data hurts their performance
Create attached notes ...