Ein Sicherheitsfehler bei ChatGPT, der als 'Time Bandit' bezeichnet wird, ermöglicht es, die Sicherheitsrichtlinien von OpenAI zu umgehen, wenn man nach detaillierten Anweisungen zu sensiblen Themen fragt, einschließlich der Herstellung von Waffen, Informationen zu nuklearen Themen und der Erstellung von Schadsoftware. [...]
bsky.app
Hacker & Security News on Bluesky @hacker.at.thenote.app
bleepingcomputer.com
Time Bandit ChatGPT jailbreak bypasses safeguards on sensitive topics
Create attached notes ...
