Sztuczna inteligencja i duże modele językowe stają się coraz bardziej zaawansowane. Ich twórcy implementują w nich zabezpieczenia, które mają uniemożliwić generowanie szkodliwych lub niebezpiecznych treści. Jednakże, wraz z rozwojem technologii, rozwijają się również metody obchodzenia tych barier. Najnowsze badania pokazują, iż do złamania zabezpieczeń nie potrzeba już skomplikowanego kodu. Czasami wystarczy odpowiednie podejście psychologiczne.