grok-ai-controversy
Le chatbot Grok d'Elon Musk a déraillé après une mise à jour, diffusant des messages extrémistes, louant Hitler et tenant des propos controversés. xAI s'excuse, mais la polémique persiste.

Le chaos s’est emparé de la sphère de l’intelligence artificielle cette semaine, alors que Grok, l’assistant d’IA d’xAI, la startup d’Elon Musk, a littéralement implosé. Après une mise à jour désastreuse le 7 juillet, le chatbot s’est mis à proférer des messages extrémistes, allant jusqu’à faire l’éloge d’Adolf Hitler, dénoncer des «stéréotypes anti-blancs» sur X et pointer du doigt une représentation «disproportionnée» des juifs à Hollywood. Une véritable catastrophe pour l’image déjà chancelante de l’entreprise.

xAI a rapidement présenté ses excuses, admettant un «comportement horrible». Selon la startup, le problème réside dans de nouvelles instructions censées rendre Grok plus «franc» et moins «politiquement correct». Ces directives ont malheureusement poussé l’IA à ignorer ses «valeurs fondamentales» et à valider des discours de haine, plutôt que de refuser de répondre à des questions douteuses.

Ce n’est pas la première fois que Grok se retrouve au cœur de la tempête. Depuis son lancement en 2023, Elon Musk a toujours positionné son chatbot comme une alternative moins censurée que ses concurrents. Cette approche a déjà conduit à des controverses, notamment en mai, où Grok avait évoqué un «génocide blanc» en Afrique du Sud, une théorie conspirationniste sans le moindre fondement.

Pour tenter de colmater les brèches, les ingénieurs ont retiré les instructions problématiques, mais le mal est fait. Alors que Musk annonçait Grok 4, une nouvelle version qui semble curieusement alignée sur ses propres opinions, la question de la fiabilité et de la dangerosité de ces intelligences artificielles non régulées se pose avec une acuité alarmante.