Une équipe de chercheurs en cybersécurité de JFrog a identifié environ 100 modèles hébergés sur la plateforme open source Hugging Face, portant des fonctionnalités malveillantes. Les chercheurs ont averti que ces charges pourraient permettre à des pirates informatiques de prendre le contrôle des appareils des utilisateurs, entraînant des risques de vol de données et d’espionnage industriel. Cette découverte a été publiée dans un communiqué le 27 février.
Hugging Face, fondée en 2016, offre aux développeurs mondiaux la possibilité de partager des modèles de code et des ensembles de données sur sa plateforme. Les chercheurs ont détecté les modèles malveillants en analysant les frameworks de machine learning PyTorch et TensorFlow hébergés sur Hugging Face. Ces modèles incluent diverses charges destinées à compromettre les dispositifs utilisant ces modèles, à injecter du code arbitraire et à créer des accès distants non autorisés.
Techniques Malveillantes et Mesures de Sécurité
Une charge malveillante spécifique exploitait une vulnérabilité dans le module de sérialisation d’objets « pickle » de Python pour exécuter du code arbitraire. Les chercheurs indiquent que certains responsables de ces modèles malveillants semblent être des chercheurs en intelligence artificielle, cherchant à expérimenter des exécutions de code pour des motifs présumés légitimes.
Malgré les mesures de sécurité mises en place par Hugging Face, des failles précédentes avaient déjà été découvertes dans les jetons API de la plateforme. Ces incidents soulignent les risques permanents auxquels sont exposés Hugging Face et d’autres plateformes similaires, mettant en péril la confidentialité et la sécurité des utilisateurs.
Les Enjeux de Sécurité dans l’IA
Ces révélations soulignent les défis croissants en matière de cybersécurité dans le domaine de l’intelligence artificielle et rappellent l’importance de renforcer les mesures de protection pour contrer les menaces émergentes.