Een anonieme lezer citeert een rapport van MIT Technology Review: Sinds het begin van de generatieve AI-boom hebben content creators beweerd dat hun werk zonder hun toestemming in AI-modellen is gestolen. Maar tot nu toe was het moeilijk om te weten of specifieke tekst daadwerkelijk in een trainingsdataset is gebruikt. Nu hebben ze een nieuwe manier om het te bewijzen: "copyrighttraps" ontwikkeld door een team van Imperial College London, stukken verborgen tekst die schrijvers en uitgevers kunnen gebruiken om hun werk subtiel te markeren om later te kunnen detecteren of het in AI-modellen is gebruikt of niet. Het idee is vergelijkbaar met valstrikken die door auteursrechtenhouders door de geschiedenis heen zijn gebruikt - strategieën zoals het opnemen van neplocaties op een kaart of nepwoorden in een woordenboek. [...]
De code om traps te genereren en te detecteren is momenteel beschikbaar op GitHub, maar het team heeft ook de intentie om een tool te bouwen waarmee mensen zelf traps kunnen genereren en invoegen. "Er is een complete gebrek aan transparantie in termen van welke inhoud wordt gebruikt om modellen te trainen, en we denken dat dit het vinden van de juiste balans [tussen AI-bedrijven en content creators] voorkomt," zegt Yves-Alexandre de Montjoye, een associate professor in toegepaste wiskunde en computerwetenschap aan Imperial College London, die het onderzoek leidde.
De valstrikken zijn niet onfeilbaar en kunnen worden verwijderd, maar De Montjoye zegt dat het verhogen van het aantal valstrikken het aanzienlijk moeilijker en middelen-intensiever maakt om ze te verwijderen. "Of ze allemaal kunnen verwijderen of niet, is een open vraag, en dat is waarschijnlijk een beetje een kat-en-muisspel," zegt hij.
tech.slashdot.org
'Copyright Traps' Could Tell Writers If an AI Has Scraped Their Work
Create attached notes ...
