Alliance inédite des géants de l’IA pour sécuriser les systèmes d’IA générative

Mardi 16 avril, des géants de l’intelligence artificielle (IA), tels qu’Ant Group, Baidu, Tencent, OpenAI, Microsoft et Nvidia, ont annoncé la création de deux normes sur l’IA générative et les grands modèles de langage (LLM) lors d’un événement parallèle de la Conférence des Nations Unies à Genève. Cette alliance sans précédent vise à établir des références mondiales en matière de sécurité des applications d’IA générative et des méthodes de test de la sécurité des LLM.

Le texte concernant l’IA générative a été rédigé par des chercheurs de plusieurs sociétés, puis validé par d’autres, dont Amazon, Ant Group, et Google. Il propose un cadre pour tester la sécurité des systèmes, tandis que la norme sur les LLM explicite plusieurs méthodologies pour tester efficacement la résistance aux attaques informatiques.

Une collaboration internationale nécessaire

Bien que ces entreprises soient concurrentes et appartiennent à des pays aux tensions croissantes, cette collaboration démontre le besoin d’une collaboration internationale et d’harmonisation à l’échelle mondiale pour la création des futures IA. L’intelligence artificielle générative se développe rapidement et entraîne une augmentation des risques et des craintes, ce qui pousse les leaders du secteur à souhaiter l’établissement de normes.

Des encadrements encore timides

Si des encadrements commencent à voir le jour, comme les règles chinoises pour les créateurs d’IA et l’AI Act de l’Union européenne, la plupart de ces initiatives internationales restent non contraignantes. Les nouvelles normes soulignent ainsi le besoin de collaboration internationale et d’harmonisation à l’échelle mondiale pour la création des futures IA.


Derniers Articles

Ces articles pourraient vous plaire