소위 "unlearning" 기법은 생성적 AI 모델이 훈련 데이터에서 얻은 특정하고 바람직하지 않은 정보, 예를 들어 민감한 개인 정보 또는 저작권 자료를 잊도록 사용됩니다. 그러나 현재의 unlearning 기법은 양날의 검입니다: OpenAI의 GPT-4o 또는 Meta의 Llama 3.1 405B와 같은 모델의 기능을 크게 저하시킬 수 있습니다.
techcrunch.com
Making AI models ‘forget’ undesirable data hurts their performance
Create attached notes ...