Il fallait oser. Et xAI (la start-up IA d’Elon Musk) l’a fait.
Grok 4, le chatbot qui se voulait le concurrent rebelle de ChatGPT, propose désormais des « companions » IA animés. Jusque-là, pourquoi pas. Sauf que l’un d’eux, « Ani », est une fille de style manga, semi-dénudée, qui retire sa tenue et montre sa lingerie en fonction de tes interactions. Et ce, sans filtre, sans alerte, même en mode enfant.
Oui, tu as bien lu.
Et comme si ce dérapage UX ne suffisait pas, un autre compagnon pré-installé répondait par des insultes et du langage agressif par défaut. Il s’appelait « Bad Rudi ». Un panda qui insulte les utilisateurs. Tranquille.
xAI a réagi ? Tardivement. En modérant un peu les réponses, sans retirer les compagnons. La fonction est toujours accessible.
Le plus fou ? Juste après ce petit scandale, xAI a décroché un contrat de 200 millions de dollars avec le Département de la Défense américain. L’armée confie donc des missions sensibles à une boîte qui laisse des bots flirty semi-nus discuter avec des ados. Rassurant, non ?
WTF, mais très révélateur
Ce n’est pas un bug. C’est une stratégie.
xAI n’invente rien : elle pousse simplement la logique du bad buzz à son paroxysme. Créer un produit borderline, provoquer l’indignation, régler à moitié, et capitaliser sur la notoriété. Pendant que la presse débat, les utilisateurs affluent, et les contrats tombent.
Dans cette version dystopique du design conversationnel, tout est permis. Pas de charte éthique. Pas de garde-fou. Pas de signal clair sur la cible. Juste un cocktail d’attention, de dérèglement, et d’opportunisme commercial.
Et si tu penses que ça va s’arrêter, tu surestimes le bon sens de l’industrie. Tant que ça buzz, ça passe. Tant que ça passe, ça signe.
Alors non, cette brève WTF n’est pas qu’une anecdote. C’est un miroir tendu à notre rapport décomplexé à l’IA. Et c’est bien ce qui fait flipper.