Picklescan : des bogues permettent à des modèles PyTorch malveillants d'éviter les contrôles et d'exécuter du code

Publié le 04 Décembre 2025 · Par Sn0wAlice

Trois vulnérabilités critiques ont été révélées dans l'outil open-source Picklescan, qui permettraient aux acteurs malveillants d'exécuter du code arbitraire en chargant des modèles PyTorch non fiables. Cela mettrait ainsi la sécurité de l'IA en danger.

🚫 Fonctionnalité réservée

La lecture d'un article est réservée aux membres Premium.
Pour en profiter, abonne-toi dès maintenant !

S'abonner à Premium 🚀