Såkaldte "unlearning"-tekniker bruges til at gøre en generativ AI-model til at glemme specifikke og uønskede oplysninger, den har opsnappet fra træningsdata, som f.eks. følsomme personlige data eller ophavsretligt materiale. Men nuværende unlearning-tekniker er en dobbeltægget sværd: De kan gøre en model som OpenAI's GPT-4o eller Meta's Llama 3.1 405B meget mindre kapabel til at svare på spørgsmål og give meningsfulde svar.
techcrunch.com
Making AI models ‘forget’ undesirable data hurts their performance
Create attached notes ...