1. インペリアル・カレッジ・ロンドンで研究を行っているチームが、AIモデルで内容が許可なく使用されていることを証明するための「著作権トラップ」を開発しました。
2. これらのトラップは、作家や出版社が、後で検出するために自分の作品に秘密でマークするためのテキストの断片です。
3. トラップの生成と検出のためのコードはGitHubで公開されており、チームは、ユーザーが自分のトラップを作成し挿入できるツールを構築する予定です。
4. トラップは、語句ジェネレーターを使用して、数千の合成文を生成し、テキストに複数回挿入します。
5. トラップを検出すには、大規模な言語モデルに合成文を与え、「驚くべき」スコアを分析して、モデルがこれらの文を前に見たかどうかを判断します。
6. 著作権トラップは、小さいモデルに対してメンバーシップ推論攻撃を行う方法です。これらのモデルはこれらの攻撃に対して耐性があります。
7. 研究では、テキストデータにトラップを導入すると、メンバーシップ推論攻撃の効果が大幅に向上します。
8. ただし、文書に同じフレーズを1,000回繰り返すことは、AIモデルを訓練する人々に検出される可能性があります。このため、トラップは実用的でない可能性があります。
9. 著作権トラップを改善するには、著作権コンテンツをマークする他の方法を見つけるか、メンバーシップ推論攻撃を強化する必要があります。
10. 著作権トラップの効果は一時的なものであり、内容作成者とAIモデルトレーナーとの猫と鼠のゲームを引き起こす可能性があります。
technologyreview.com
A new tool for copyright holders can show if their work is in AI training data
Create attached notes ...
