貓毛 Jul 17, 2025 07:40AM 還能這樣偷藏 prompt injection... 只改關鍵字的一個字元就能讓AI「中招」回答色情或暴力問題?新型TokenBreak攻擊手法成語言模型隱憂