Rechercheurs manipulent ChatGPT pour injecter automatiquement des prompts

Publié le 11 Novembre 2025 · Par Sn0wAlice

Des chercheurs de Tenable Security ont récemment identifié sept nouvelles façons d'injecter des prompts malveillants dans ChatGPT afin d'obtenir des informations privées à partir des historiques de discussions. Ces techniques exploitent les fonctionnalités par défaut de ChatGPT, comme sa capacité à mémoriser le contexte de la conversation longtemps après et ses fonctionnalités de recherche web.

🚫 Fonctionnalité réservée

La lecture d'un article est réservée aux membres Premium.
Pour en profiter, abonne-toi dès maintenant !

S'abonner à Premium 🚀