Découverte de Modèles Malveillants sur la Plateforme Hugging Face

Une équipe de chercheurs en cybersécurité de JFrog a identifié environ 100 modèles hébergés sur la plateforme open source Hugging Face, présentant des fonctionnalités malveillantes. Ces modèles pourraient permettre à des pirates informatiques de compromettre les appareils des utilisateurs, entraînant un risque de vol de données et d’espionnage industriel.

Dans un communiqué publié le 27 février, les chercheurs ont averti que ces charges malveillantes pourraient ouvrir la voie à des attaques telles que l’injection de code arbitraire et l’accès à distance aux appareils. Hugging Face, fondée en 2016, offre une plateforme permettant aux développeurs du monde entier de partager des modèles de code et des ensembles de données pour une utilisation ultérieure.

Analyses Approfondies et Détections des Menaces

Les chercheurs ont examiné les frameworks de machine learning PyTorch et TensorFlow disponibles sur Hugging Face pour déceler ces modèles malveillants. En éliminant les faux positifs, leur étude a révélé diverses charges utiles visant à compromettre les dispositifs des utilisateurs, notamment en piratant les appareils, en injectant du code malveillant et en établissant des shells inversés.

Un exemple concret a été donné avec un modèle PyTorch téléchargé par un utilisateur nommé « Baller423 », contenant une charge malveillante exploitant une faille dans le module de sérialisation d’objets « pickle » de Python pour exécuter du code arbitraire de manière indétectable lors du chargement du modèle.

Préoccupations sur la Sécurité et la Confidentialité

Malgré les mesures de sécurité mises en place par Hugging Face, des chercheurs ont déjà identifié des failles de sécurité dans de nombreux jetons API sur la plateforme, soulevant des inquiétudes quant à la sécurité des données et à la confidentialité des utilisateurs. Ces incidents soulignent les menaces persistantes auxquelles font face les plateformes populaires comme Hugging Face et Kaggle.

En dépit des tentatives des chercheurs en intelligence artificielle de justifier leurs actions comme légitimes, ces pratiques représentent un risque significatif pour la cybersécurité et appellent à une vigilance accrue de la part des plateformes et des utilisateurs.

Derniers Articles

Ces articles pourraient vous plaire