Why Nostr? What is Njump?
2024-10-31 10:52:04

Scripter :verified_flashing: on Nostr: KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst - Golem.de #ChatGPT ...

KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst - Golem.de
https://glm.io/190310?n #ChatGPT #Sicherheitslücke #Jailbreak #HexCode #HexCodierung

Author Public Key
npub1dwx2exgj4wthf952k2wuhlwqac8klzzljqjqfk3hw8qwrkacck7qcgyy50