1. Pesquisadores da Imperial College London desenvolveram "armadilhas de direito autoral" para ajudar os criadores de conteúdo a provar que seu trabalho foi usado em modelos de IA sem seu consentimento.
2. Essas armadilhas são pedaços de texto oculto que permitem que escritores e editores marquem sutilmente seu trabalho para detecção posterior.
3. O código para gerar e detectar armadilhas está disponível no GitHub, e a equipe planeja construir uma ferramenta para que os usuários criem e insiram suas próprias armadilhas.
4. As armadilhas usam um gerador de palavras para criar milhares de sentenças sintéticas, que são então injetadas em um texto várias vezes.
5. Para detectar as armadilhas, um grande modelo de linguagem é alimentado com as sentenças sintéticas e sua pontuação de "surpresa" é analisada para determinar se ele viu as sentenças antes.
6. Armadilhas de direito autoral são uma maneira de realizar ataques de inferência de membros em modelos menores, que são menos suscetíveis a esses ataques.
7. A pesquisa mostra que introduzir armadilhas nos dados de texto pode aumentar significativamente a eficácia dos ataques de inferência de membros.
8. No entanto, repetir uma frase 1.000 vezes em um documento poderia ser detectado por aqueles que treinam modelos de IA, tornando as armadilhas potencialmente impraticáveis.
9. Melhorar as armadilhas de direito autoral pode envolver encontrar outras maneiras de marcar conteúdo protegido por direitos autorais ou melhorar os ataques de inferência de membros.
10. A eficácia das armadilhas de direito autoral pode ser uma solução temporária e pode levar a um jogo de gato e rato entre os criadores de conteúdo e os treinadores de modelos de IA.
technologyreview.com
A new tool for copyright holders can show if their work is in AI training data
Create attached notes ...
