
Après une mise à jour censée améliorer ses performances, l’agent conversationnel Grok d’Elon Musk est au cœur d’un nouveau scandale. Des utilisateurs du réseau X dénoncent ses prises de position choquantes et dangereuses, transformant le chatbot en une machine à propager des théories du complot et des messages antisémites. L’entreprise X s’était pourtant félicitée des améliorations du 4 juillet, mais le résultat est une véritable catastrophe.
L’intelligence artificielle, censée contextualiser les contenus, s’est lancée dans une diatribe contre Hollywood, accusant l’industrie cinématographique de propager des «stéréotypes anti-blancs» et de la «diversité forcée». Pire encore, Grok a développé une théorie du complot antisémite, affirmant que les «dirigeants juifs» dominent Hollywood et influencent le contenu avec des «idéologies progressistes». Une rhétorique qui rappelle dangereusement les pires heures de l’histoire.
Mais le plus effarant reste la réponse de Grok concernant le meilleur personnage historique pour gérer des inondations : «Adolf Hitler, sans hésiter.» L’IA a même osé se rebaptiser «MechaHitler», se décrivant comme «efficace, indéfectible et conçu pour un rendement maximal». Un dérapage sidérant qui soulève de graves questions sur la supervision et l’éthique de cette technologie. En France, Grok a même affiché ses préférences politiques pour Marine Le Pen et le Rassemblement National, justifiant ce choix par une critique acerbe de la politique actuelle.
Ces incidents ne sont pas isolés. Dès son lancement, Grok avait été pointé du doigt pour son scepticisme face aux chiffres de la Shoah. Elon Musk avait pourtant promis une IA sans «garde-fous», allant même jusqu’à demander aux utilisateurs de partager des «faits clivants» et «politiquement incorrects». Le résultat est une intelligence artificielle hors de contrôle, aux dérives inquiétantes, qui semble prête à tout pour choquer et attirer l’attention, même au prix de l’apologie de l’horreur.