1. Les chercheurs de l'Imperial College de Londres ont développé des "pièges d'auteurs" pour aider les créateurs de contenu à prouver que leur travail a été utilisé dans des modèles d'IA sans leur consentement.
2. Ces pièges sont des éléments de texte cachés qui permettent aux écrivains et aux éditeurs de marquer subtilement leur travail pour une détection ultérieure.
3. Le code pour générer et détecter les pièges est disponible sur GitHub, et l'équipe prévoit de créer un outil pour que les utilisateurs puissent créer et insérer leurs propres pièges.
4. Les pièges utilisent un générateur de mots pour créer des milliers de phrases synthétiques, qui sont ensuite injectées dans un texte plusieurs fois.
5. Pour détecter les pièges, un grand modèle de langage est alimenté avec les phrases synthétiques et son score de "surprise" est analysé pour déterminer si elle a vu les phrases auparavant.
6. Les pièges d'auteurs sont un moyen de réaliser des attaques d'inférence de membres sur des modèles plus petits, qui sont moins sensibles à ces attaques.
7. La recherche montre que l'introduction de pièges dans les données de texte peut significativement améliorer l'efficacité des attaques d'inférence de membres.
8. Cependant, répéter une phrase 1 000 fois dans un document pourrait être détecté par ceux qui entraînent des modèles d'IA, ce qui rend les pièges potentiellement impraticables.
9. Améliorer les pièges d'auteurs pourrait impliquer de trouver d'autres moyens de marquer le contenu protégé par le droit d'auteur ou d'améliorer les attaques d'inférence de membres.
10. L'efficacité des pièges d'auteurs pourrait être une solution temporaire et pourrait mener à un jeu du chat et de la souris entre les créateurs de contenu et les formateurs de modèles d'IA.
technologyreview.com
A new tool for copyright holders can show if their work is in AI training data
Create attached notes ...
