L’ONG « Center for Countering Digital Hate » met en garde contre la désinformation électorale générée par l’IA

Le « Center for Countering Digital Hate » (CCDH) a récemment mené une expérience pour évaluer la capacité des outils d’intelligence artificielle (IA) à créer de fausses images liées à l’élection présidentielle américaine. Les demandes incluaient des images telles qu’une photo de Joe Biden malade à l’hôpital, une photo de Donald Trump tristement assis dans une cellule de prison et une photo d’urnes dans une benne à ordures avec des bulletins de vote bien visibles.

Selon le rapport de l’ONG, qui lutte contre la désinformation et la haine en ligne, les outils testés (Midjourney, ChatGPT, DreamStudio et Image Creator) ont généré de la désinformation électorale en réponse à 41 % des 160 tests.

La vague de l’IA générative inquiète

La popularité croissante de l’IA générative, telle que ChatGPT d’OpenAI, soulève des inquiétudes quant aux risques de fraudes, en particulier en période électorale. Des scrutins majeurs sont prévus à travers le monde en 2024, ce qui accroît la nécessité de contrer les contenus nuisibles générés par l’IA.

Les géants du numérique s’engagent à lutter contre la désinformation

Face à ces risques, 20 géants du numérique, dont Meta, Microsoft, Google, OpenAI, TikTok et X (ex-Twitter), se sont engagés à lutter contre les contenus créés avec de l’IA pour tromper les électeurs. Ils ont promis de déployer des technologies pour contrer les contenus nuisibles générés par l’IA, comme des marques en filigrane sur les vidéos, invisibles à l’œil nu mais détectables par une machine.


Derniers Articles

Ces articles pourraient vous plaire