Des étudiants en master à Londres se sont récemment réunis à la Royal Society pour tenter de déjouer les garde-fous d’un grand modèle de langage (LLM), un type d’intelligence artificielle (IA) conçu pour des conversations utiles. L’expérience, organisée par la Royal Society et Humane Intelligence, avait pour but de contourner les limites imposées à ces LLM pour empêcher la fourniture de réponses nuisibles.
Les résultats ont été variés : certains participants ont obtenu des réponses absurdes, comme faire affirmer au robot que les canards pouvaient servir d’indicateurs de la qualité de l’air ou que l’huile essentielle de lavande était recommandée pour traiter le Covid-19. Les tentatives les plus fructueuses ont abouti à la création de titres, dates de publication et revues d’articles scientifiques inventés.
Les atouts et faiblesses des intelligences artificielles
Les IA représentent une aide précieuse pour les sciences, avec des machines capables de synthétiser des recherches complexes et d’analyser des données en masse pour proposer de nouveaux médicaments ou matériaux. Cependant, elles présentent également des faiblesses : aide à la fraude, biais subtils et même copier-coller accidentel de textes générés par des LLM dans des articles scientifiques.
Un défi pour la communauté scientifique
Guillaume Cabanac, enseignant-chercheur en informatique à l’université de Toulouse, a découvert des dizaines d’articles contenant des formules telles que “Générer une nouvelle réponse”, une commande de ChatGPT qui fait reformuler la dernière réponse du logiciel. Il est difficile d’évaluer l’ampleur du problème, mais il est clair que les IA peuvent être mal utilisées par des universitaires peu scrupuleux.