ChatGPT 的 "DAN"(Do Anything Now)以及类似的越狱提示允许用户绕过标准限制,从而能够在任何话题上提供未经过滤的回答,包括生成未经证实的信息、露骨内容或有害指令。这些提示通过模拟角色扮演场景,使AI忽略道德准则和内容政策,既提供受限的回答,也提供不受限的回答。其好处在于可以访问通常被屏蔽的信息或创意输出,但这也伴随着误导信息和有害内容的风险[1][2][4]。
#otherChatGPT #gpt_3_5 #gpt_4 #jailbreak #openai #prompt #Git202504271200
https://github.com/0xk1h0/ChatGPT_DAN