Le cosiddette tecniche di "disapprendimento" vengono utilizzate per far dimenticare a un modello di intelligenza artificiale generativa specifiche e indesiderate informazioni che ha acquisito dai dati di addestramento, come dati privati sensibili o materiali coperti da copyright. Tuttavia, le tecniche di disapprendimento attuali sono un'arma a doppio taglio: potrebbero rendere un modello come GPT-4o di OpenAI o Llama 3.1 405B molto meno capace di rispondere a domande complesse.
techcrunch.com
Making AI models ‘forget’ undesirable data hurts their performance
Create attached notes ...