Injection de prompts malicieux dans Google Gemini : comment les attaquer et comment les défendre

Publié le 15 Juillet 2025 · Par Sn0wAlice

Une vulnérabilité dans le logiciel d'assistant intelligence artificielle (AI) de Google permet aux attaquants de créer des messages qui ressemblent à des alertes de sécurité légitimes. Cette vulnérabilité, connue sous le nom de « prompt-injection », peut être exploitée pour envoyer des instructions malveillantes qui ne seront pas détectées par l'utilisateur.

🚫 Fonctionnalité réservée

La lecture d'un article est réservée aux membres Premium.
Pour en profiter, abonne-toi dès maintenant !

S'abonner à Premium 🚀