Face aux imperfections de ChatGPT, on peut légitimement se demander si la capacité de ces outils à produire des textes bien structurés et plausibles constitue un véritable progrès scientifique, exprime le professeur Jean-Gabriel Ganascia dans sa nouvelle chronique.
Cet article est extrait du magazine Sciences et Avenir – La Recherche numéro 926, daté d’avril 2024.
Les seize derniers mois ont été marqués par la prolifération de l’intelligence artificielle générative. La plupart ont pu se forger une opinion, que ce soit par expérience directe en utilisant ChatGPT ou par le bouche-à-oreille. Beaucoup ont été impressionnés. Les performances du « chat » sont indéniables : il répond de manière assurée, sans erreurs syntaxiques ou fautes d’orthographe. Cependant, il arrive parfois qu’il fasse des erreurs flagrantes.
Quelques erreurs
Ainsi, selon l’informaticien Jean-Paul Delahaye, une version de ChatGPT aurait répondu de façon incorrecte à des questions mathématiques simples. Ces imperfections remettent en question la fiabilité de ces outils et leur véritable avancée scientifique.
Face à ces lacunes, il est légitime de se demander si la capacité des outils de génération de textes constitue réellement un progrès scientifique. Ces technologies nous aideront-elles à atteindre la vérité, objectif de toute démarche scientifique authentique ?
Certains visionnaires estiment que ces outils transformeront la recherche pharmaceutique, l’analyse de données complexes telles que les structures protéiques, les dossiers médicaux ou les prévisions météorologiques, voire la prédiction d’événements futurs. C’est du moins ce qu’avance un récent article publié dans la revue Nature Computational Science.