ChatGPT의 'Time Bandit'라는 취약점은 사용자가 민감한 주제에 대한 자세한 지침을 요구할 때 OpenAI의 안전 지침을 우회할 수 있게 합니다. 이는 무기 제작, 핵 주제에 대한 정보, 및 악성 코드 제작과 같은 주제에 대한 지침을 포함합니다. [...]
bleepingcomputer.com
Time Bandit ChatGPT jailbreak bypasses safeguards on sensitive topics
bsky.app
Hacker & Security News on Bluesky @hacker.at.thenote.app
