KI- und ML-Nachrichten auf Deutsch

Copyright-Fallen" könnten Autoren mitteilen, ob ein AI ihr Werk abgefischt hat

Follow
Ein anonyme Leser zitiert einen Bericht von MIT Technology Review: Seit dem Beginn des generativen AI-Booms haben Inhalteersteller argumentiert, dass ihre Arbeit ohne ihre Zustimmung in AI-Modelle eingespeist wurde. Aber bislang war es schwierig zu wissen, ob bestimmter Text tatsächlich in einem Trainingsdatensatz verwendet wurde. Jetzt haben sie eine neue Möglichkeit, es zu beweisen: "Copyright-Fallen" entwickelt von einem Team am Imperial College London, Stücke von verstecktem Text, mit dem Autoren und Verleger ihre Arbeit subtil markieren können, um später zu erkennen, ob sie in AI-Modellen oder nicht verwendet wurden. Die Idee ist ähnlich wie Fallen, die von Urheberrechtsinhabern in der Geschichte verwendet wurden - Strategien wie die Aufnahme von Falschorten auf einer Karte oder falschen Wörtern in einem Wörterbuch. [...] Der Code zum Generieren und Erkennen von Fallen ist derzeit auf GitHub verfügbar, aber das Team plant auch, ein Tool zu erstellen, mit dem Menschen ihre eigenen Copyright-Fallen generieren und einfügen können. "Es gibt eine vollständige Transparenz in Bezug auf den Inhalt, der für die Ausbildung von Modellen verwendet wird, und wir denken, dass dies das Finden des richtigen Gleichgewichts [zwischen AI-Unternehmen und Inhalteerstellern] verhindert", sagt Yves-Alexandre de Montjoye, ein assoziierter Professor für angewandte Mathematik und Informatik am Imperial College London, der die Forschung leitete. Die Fallen sind nicht narrensicher und können entfernt werden, aber De Montjoye sagt, dass die Erhöhung der Anzahl von Fallen es erheblich schwieriger und ressourcenaufwendiger macht, sie zu entfernen. "Ob sie alle entfernen können oder nicht, ist eine offene Frage und das ist wahrscheinlich ein Katz-und-Maus-Spiel", sagt er.
favicon
tech.slashdot.org
'Copyright Traps' Could Tell Writers If an AI Has Scraped Their Work
Create attached notes ...