AI 및 ML 뉴스

AI 모델이 바람직하지 않은 데이터를 '잊어버리게' 하면 성능이 저하됩니다.

소위 "unlearning" 기법은 생성적 AI 모델이 훈련 데이터에서 얻은 특정하고 바람직하지 않은 정보, 예를 들어 민감한 개인 정보 또는 저작권 자료를 잊도록 사용됩니다. 그러나 현재의 unlearning 기법은 양날의 검입니다: OpenAI의 GPT-4o 또는 Meta의 Llama 3.1 405B와 같은 모델의 기능을 크게 저하시킬 수 있습니다.
techcrunch.com
Making AI models ‘forget’ undesirable data hurts their performance
Create attached notes ...