OpenAI hat ein leistungsfähiges Anti-Schummel-Tool entwickelt, um AI-generierte Inhalte, insbesondere Essays und Forschungspapiere, zu erkennen, aber es hat sich dagegen entschieden, es zu veröffentlichen, aufgrund interner Debatten und ethischer Erwägungen, wie die WSJ berichtet.
Dieses Tool, das etwa ein Jahr lang für den Einsatz bereit ist, verwendet eine Technik, die sogenannte Watermarking, um die Tokenauswahl in ChatGPT-Ausgaben subtil zu ändern und so ein unmerkliches Muster zu schaffen, das nur mit OpenAIs Technologie erkannt werden kann. Obwohl es eine Effektivitätsrate von 99,9% für umfangreiche AI-generierte Texte aufweist, bestehen weiterhin Bedenken hinsichtlich möglicher Umgehungsmethoden und der Herausforderung, den geeigneten Zugang zu dem Erkennungstool zu bestimmen, sowie seine potenzielle Auswirkung auf Nicht-Muttersprachler und das breitere Ökosystem der KI.
tech.slashdot.org
OpenAI Grapples With Unreleased AI Detection Tool Amid Cheating Concerns
Create attached notes ...