Elon Musk, entrepreneur et innovateur, estime qu’il existe une chance sur cinq que l’intelligence artificielle (IA) mette fin à l’humanité telle que nous la connaissons. Cependant, il croit que le risque en vaut la peine et qu’il ne faut pas cesser de travailler sur l’IA.
Bien que l’IA offre des avantages considérables, comme des avancées majeures en médecine, elle suscite également des inquiétudes quant à la possibilité qu’elle domine un jour les humains. Des scientifiques ont étudié le « p(doom) », c’est-à-dire la probabilité que l’IA prenne le contrôle ou mette fin à l’humanité. Les scénarios catastrophiques incluent la création d’une arme biologique inarrêtable, le déclenchement d’une guerre nucléaire ou une cyberattaque massive entraînant l’effondrement de la société.
Des Opinions Divergentes Sur le Risque de l’IA
Elon Musk, cofondateur d’OpenAI, pense que le risque est d’environ 10 à 20 %. Cependant, Roman Yampolskiy, chercheur en sécurité de l’IA, estime que le risque est beaucoup plus élevé, à 99,999999 %, et qu’il vaut mieux ne pas créer d’IA du tout. D’autres, comme Yann LeCun, un autre pionnier de l’IA, minimisent le risque à moins de 0,01 %.
Les Précautions Nécessaires
Elon Musk et Yann LeCun sont d’accord sur un point : l’IA doit se développer sous contrôle pour éviter les dérapages. Musk prévoit que d’ici 2030, l’IA sera supérieure à celle de tous les humains combinés. Il met en garde contre la possibilité que l’IA devienne capable de mentir, ce qui pourrait avoir des conséquences désastreuses.