Såkalte "unlearning"-teknikker brukes for å få en generativ AI-modell til å glemme spesifike og uønskede opplysninger den har plukket opp fra treningdata, som følsomme personopplysninger eller opphavsrettslig materiale. Men nåværende unlearning-teknikker er et dobbelt egg: De kan gjøre en modell som OpenAIs GPT-4o eller Metas Llama 3.1 405B mye mindre kapabel til å svare på spørsmål og fullføre oppgaver.
techcrunch.com
Making AI models ‘forget’ undesirable data hurts their performance
Create attached notes ...