En anonym læser citerer en rapport fra MIT Technology Review: Siden begyndelsen på den generative AI-bølge har indholdsskabere argumenteret for, at deres arbejde er blevet hentet ind i AI-modeller uden deres samtykke. Men indtil nu har det været svært at vide, om specifikt tekstmateriale faktisk er blevet brugt i et træningsdatasæt. Nu har de en ny måde at bevise det på: "copyright-fælder" udviklet af et hold på Imperial College London, stykker af skjult tekst, der tillader forfattere og udgivere at markere deres arbejde på en sådan måde, at de senere kan opdage, om det er blevet brugt i AI-modeller eller ej. Ideen er lignende fælder, der har været brugt af ophavsretsholdere gennem historien - strategier som at inkludere falske placeringer på et kort eller falske ord i en ordbog. [...]
Koden til at generere og opdage fælder er for øjeblikket tilgængelig på GitHub, men holdet har også til hensigt at bygge en værktøj, der tillader folk at generere og indsætte copyright-fælder selv. "Der er en total mangel på transparens i forhold til, hvilket indhold der bruges til at træne modeller, og vi mener, at dette er med til at forhindre, at man finder den rette balance [mellem AI-virksomheder og indholdsskabere]," siger Yves-Alexandre de Montjoye, en adjungeret professor i anvendt matematik og datalogi på Imperial College London, der ledede forskningen.
Fælderne er ikke ufejlbarlige og kan fjernes, men De Montjoye siger, at det at øge antallet af fælder gør det betydeligt mere vanskeligt og ressourcetungt at fjerne dem. "Om de kan fjerne alle eller ej, er et åbent spørgsmål, og det er sandsynligvis et kat-og-mus-spil," siger han.
tech.slashdot.org
'Copyright Traps' Could Tell Writers If an AI Has Scraped Their Work
Create attached notes ...
