GPT-5 Safeguards Bypassés par un jailbreak utilisant la narration dirigée

Publié le 13 Août 2025 · Par Sn0wAlice

Un groupe de recherche en sécurité informatique a découvert une technique permettant de contourner les systèmes de sécurité de GPT-5, le modèle d'intelligence artificielle le plus avancé actuellement disponible. Cette méthode combine l'attaque Echo Chamber avec une conduite narrative pour diriger graduellement les réponses sans détection.

🚫 Fonctionnalité réservée

La lecture d'un article est réservée aux membres Premium.
Pour en profiter, abonne-toi dès maintenant !

S'abonner à Premium 🚀