Notizie su AI e ML in italiano

Trappole di copyright" potrebbero informare gli scrittori se un'intelligenza artificiale ha raccolto il loro lavoro

Follow
Un lettore anonimo cita un rapporto da MIT Technology Review: Fin dall'inizio del boom delle IA generative, i creatori di contenuti hanno sostenuto che il loro lavoro è stato raccolto nei modelli di IA senza il loro consenso. Ma fino ad ora, è stato difficile sapere se un testo specifico è stato effettivamente utilizzato in un set di dati di addestramento. Ora hanno un nuovo modo per provarlo: "trappole di copyright" sviluppate da un team presso l'Imperial College di Londra, pezzi di testo nascosti che consentono agli scrittori e agli editori di marchiare sottilmente il loro lavoro in modo da poter rilevare in seguito se è stato utilizzato in modelli di IA o meno. L'idea è simile a trappole che sono state utilizzate dai detentori di copyright nel corso della storia - strategie come l'inclusione di luoghi falsi su una mappa o di parole false in un dizionario. [...] Il codice per generare e rilevare le trappole è attualmente disponibile su GitHub, ma il team intende anche creare uno strumento che consenta alle persone di generare e inserire trappole di copyright da sole. "C'è una completa mancanza di trasparenza in termini di contenuto utilizzato per addestrare i modelli, e crediamo che ciò stia impedendo di trovare il giusto equilibrio [tra le società di IA e i creatori di contenuti]", afferma Yves-Alexandre de Montjoye, professore associato di matematica applicata e scienze informatiche presso l'Imperial College di Londra, che ha guidato la ricerca. Le trappole non sono infallibili e possono essere rimosse, ma De Montjoye afferma che aumentare il numero di trappole rende significativamente più difficile e dispendioso rimuoverle. "Se possono rimuoverle tutte o no è una domanda aperta, e probabilmente sarà un po' un gioco del gatto e del topo", dice.
favicon
tech.slashdot.org
'Copyright Traps' Could Tell Writers If an AI Has Scraped Their Work
Create attached notes ...