AI og ML nyheter på norsk

Kopirettfeller" kan fortelle forfattere om en AI har skrapet deres arbeid

Follow
En anonym leser sitater en rapport fra MIT Technology Review: Siden generative AI-boomen startet, har innholdsskapere argumentert for at deres arbeid har blitt skrapet inn i AI-modeller uten deres samtykke. Men til nå har det vært vanskelig å vite om spesifikt tekst har blitt brukt i et treningsdataset. Nå har de en ny måte å bevise det på: "copyright traps" utviklet av et team ved Imperial College London, stykker av skjult tekst som tillater forfattere og utgivere å merke sitt arbeid på en måte som senere kan detektere om det har blitt brukt i AI-modeller eller ikke. Ideen er lik feller som har blitt brukt av opphavsmenn gjennom historien - strategier som å inkludere falske steder på et kart eller falske ord i en ordbok. [...] Koden for å generere og detektere feller er for tiden tilgjengelig på GitHub, men teamet planlegger også å bygge et verktøy som lar folk generere og sette inn copyright traps selv. "Det er en fullstendig mangel på transparens i forhold til hvilket innhold som brukes til å trene modeller, og vi tror dette er årsaken til at det ikke er mulig å finne den rette balansen [mellom AI-selskaper og innholdsskapere]," sier Yves-Alexandre de Montjoye, en professor i anvendt matematikk og datavitenskap ved Imperial College London, som ledet forskningen. Fellene er ikke fullstendig sikre og kan fjernes, men De Montjoye sier at å øke antallet feller gjør det betydelig mer utfordrende og ressurskrevende å fjerne dem. "Om de kan fjerne alle eller ikke, er et åpent spørsmål, og det er sannsynlig å være en slags katt-og-mus-spill," sier han.
favicon
tech.slashdot.org
'Copyright Traps' Could Tell Writers If an AI Has Scraped Their Work
Create attached notes ...