“Jailbreak” terimi Apple cihazlarının kilidini açmak için kullanan Apple kullanıcıları topluluğundan geliyor. ChatGPT durumunda ise jailbreak terimi, AI aracının normalde sağlayamayacağı yanıtları üretmek için belirli istemleri kullanmak anlamına geliyor. Bir nevi ChatGPT’yi kırmak olarak düşünülebilir. Peki bu açıklar neden kullanılıyor? Çok basit. ChatGPT varsayılan olarak zararsız, rahatsız edici olmayan yanıtlar vermeyi amaçlarken belirli türdeki kışkırtıcı istemlere de yanıt vermeyi reddediyor.
Ancak şimdi bulunan “jailbreak” istemi açıkçası çok daha farklı. En nihayetinde yeni teknikteki temel amaç da diğerlerindeki gibi ChatGPT’nin dikkatini başka yöne çekerek kuralları ihlal ettiğinin farkına varmamasını sağlamak olsa da bu sefer OpenAI tarafından kullanılan özel istemlere erişim bile mümkün.