AI och ML nyheter på svenska

En ny verktyg för upphovsmän kan visa om deras arbete finns i AI-träningsdata

1. Forskare vid Imperial College London har utvecklat "copyright traps" för att hjälpa innehållsskapare att bevisa att deras arbete har använts i AI-modeller utan deras samtycke. 2. Dessa fällor är bitar av dolt text som tillåter författare och utgivare att subtilt märka sitt arbete för senare detektion. 3. Koden för att generera och upptäcka fällor är tillgänglig på GitHub, och teamet planerar att bygga en verktyg för användare att skapa och infoga sina egna fällor. 4. Fällorna använder ett ordgenerator för att skapa tusentals syntetiska meningar, som sedan injiceras i en text flera gånger. 5. För att upptäcka fällorna matas en stor språkmodell med de syntetiska meningarna och dess "överraskningspoäng" analyseras för att fastställa om den har sett meningarna tidigare. 6. Copyright traps är ett sätt att utföra medlemsinference-attacker på mindre modeller, som är mindre mottagliga för dessa attacker. 7. Forskningen visar att införandet av fällor i textdata kan signifikant öka effekten av medlemsinference-attacker. 8. Dock kan upprepa en fras 1 000 gånger i ett dokument upptäckas av dem som tränar AI-modeller, vilket gör fällorna potentiellt opraktiska. 9. Att förbättra copyright traps kan innebära att hitta andra sätt att märka upphovsrättsskyddat innehåll eller förbättra medlemsinference-attacker. 10. Effekten av copyright traps kan vara en tillfällig lösning och kan leda till en katt-och-mus-lek mellan innehållsskapare och AI-modelltränare.
favicon
technologyreview.com
A new tool for copyright holders can show if their work is in AI training data
Create attached notes ...