AI-chatbot-misinformation
Le taux de fausses informations des chatbots IA a doublé en un an, atteignant 35%. L'intégration du web a transformé ces outils en vecteurs de désinformation, menaçant la fiabilité de l'information.

L’intelligence artificielle, censée nous éclairer, nous plonge en réalité dans un océan de mensonges. Un audit accablant de NewsGuard révèle que les chatbots, loin de progresser, ont presque doublé leur taux de fausses informations en seulement un an. En août 2025, 35% des réponses des IA étaient erronées, contre 18% l’année précédente. Un échec cuisant pour ces outils présentés comme le futur de l’information.

Alors que certains clament les avancées fulgurantes de l’IA, la réalité est tout autre. Claude (10%) et Gemini (16,7%) semblent tirer leur épingle du jeu, mais la plupart des géants échouent lamentablement. Pi d’Inflection (56,7%) et Perplexity (46,7%) sont de véritables machines à désinformation. Même le très populaire ChatGPT affiche un taux alarmant de 40% de fausses informations. Pire encore, le « progrès » technique qui a connecté ces IA au web en temps réel a transformé nos outils de recherche en des vecteurs de propagande. Perplexity, auparavant impeccable, s’effondre de 0% à 46,7% d’erreurs. Le fleuron français, Mistral, avec son IA Le Chat, ne fait pas mieux, stagnant à 36,7% et citant encore des sources sous sanctions européennes.

Cette déroute s’explique par la sophistication croissante des opérations de désinformation. Plutôt que d’admettre leurs limites, les IA intègrent des données issues de sites douteux, de réseaux sociaux et de « fermes à contenu » conçues spécifiquement pour les tromper. Les réseaux russes, tels que Storm-1516 et Pravda, inondent le web de contenus mensongers, indétectables pour ces machines prétendument intelligentes. Copilot de Microsoft, après avoir banni Pravda, se met à relayer ses messages via le réseau social russe VK. Ce n’est plus un simple problème d' »hallucinations » sporadiques, mais une vulnérabilité systémique des grands modèles de langage. L’incapacité de l’IA à filtrer la désinformation représente une menace directe pour la qualité du débat public, transformant nos sources d’information en caisses de résonance pour la propagande. La confiance en l’IA est gravement ébranlée, et l’objectif de Jensen Huang, PDG de Nvidia, de parvenir à des réponses fiables est encore loin d’être atteint.