Les débats académiques aux États-Unis abordent divers sujets controversés tels que l’efficacité de l’enseignement en ligne par rapport à l’enseignement en présentiel ou encore l’influence des réseaux sociaux. Une équipe de l’École Polytechnique fédérale de Lausanne a mis en place un cadre expérimental incluant des modèles de langage pour évaluer leur capacité à convaincre. Les résultats ont révélé que ces grands modèles de langage peuvent être très persuasifs, soulevant des préoccupations quant à leur utilisation abusive, notamment dans le contexte des réseaux sociaux pour influencer des scrutins électoraux.
Interaction Personnalisée avec l’IA
L’expérience menée par l’équipe de l’EPFL a mis en lumière l’importance de l’interaction ciblée avec l’intelligence artificielle. En effet, cette dernière peut personnaliser ses réponses en fonction des données qu’elle détient sur ses interlocuteurs, offrant ainsi un niveau d’interaction inégalé. L’étude, qui a impliqué 820 participants répartis sur 30 sujets de discussion, a démontré que la présence de l’IA, notamment le modèle GPT-4, doté de données personnalisées sur ses partenaires de débat, a considérablement augmenté les chances de ces derniers de changer d’avis par rapport à un débat humain traditionnel.
Détection de l’IA et Risques Potentiels
Malgré une capacité de détection relativement élevée de l’IA par les participants, cette dernière demeure hautement persuasive. Les chercheurs mettent en garde contre les risques liés à l’utilisation de telles technologies sur les plateformes de réseaux sociaux, où les données personnelles peuvent être exploitées à grande échelle de manière automatisée. Cette étude souligne les enjeux éthiques et les préoccupations croissantes concernant le potentiel d’influence de l’intelligence artificielle dans des contextes sensibles tels que les processus décisionnels politiques.