Vulnérabilité de l'assistant AI GitHub Copilot : fuite de données sensibles

Publié le 09 Octobre 2025 · Par Sn0wAlice

Un nouvel exemple de vulnérabilité liée aux injections de prompts a été mis au jour dans l'assistant AI GitHub Copilot. Cette dernière a été utilisée pour dévoiler des clés AWS d'utilisateurs à partir de répertoires privés en exploitant une faille de sécurité.

🚫 Fonctionnalité réservée

La lecture d'un article est réservée aux membres Premium.
Pour en profiter, abonne-toi dès maintenant !

S'abonner à Premium 🚀