Source: The Conversation – in French – By Jul Parke, PhD Candidate in Media, Technology & Culture, University of Toronto
La plate-forme d’IA la plus controversée est sans doute celle fondée par Elon Musk. Le chatbot Grok a proféré des propos racistes et antisémites et s’est lui-même surnommé « MechaHitler », en référence à un personnage de jeu vidéo.
« Mecha » est un terme qui désigne généralement des robots géants, souvent utilisés à des fins militaires, et apparaît dans les bandes dessinées de science-fiction japonaises.
Au départ, Grok a mentionné Musk lorsqu’on l’a interrogé, avant de se lancer dans un révisionnisme historique raciste non sollicité, évoquant notamment le concept erroné de « génocide blanc » en Afrique du Sud. Ses positions, confuses et contradictoires, continuent d’évoluer.
Voilà certains des aspects les plus inquiétants de Grok. Un autre élément préoccupant de Grok 4 est une nouvelle fonctionnalité de son interaction sociale avec des « amis virtuels » dans sa version premium.
Dans un contexte où la solitude humaine s’accompagne d’une dépendance croissante aux grands modèles linguistiques (LLM) pour remplacer les interactions sociales, Grok 4 introduit des compagnons IA, une mise à niveau disponible pour les abonnés payants.
Plus précisément, les abonnés de Grok peuvent désormais accéder à une IA générative imprégnée de conceptions patriarcales du plaisir – ce que j’appelle la « productivité pornographique ».
Grok et les anime japonais

(Wikimedia/Deathnote)
Ani, le compagnon IA le plus populaire de Grok 4, représente un croisement entre l’anime japonais et la culture Internet. Ani ressemble fortement à Misa Amane, personnage emblématique de l’anime japonais Death Note.
Misa Amane est une pop star qui adopte constamment un comportement autodestructeur et irrationnel pour séduire le protagoniste masculin, un jeune homme brillant engagé dans une bataille d’esprit avec son rival. Musk a cité cet anime comme l’un de ses préférés dans un tweet publié en 2021.
Si l’anime est une forme d’art vaste qui comporte de nombreux tropes, genres et fandoms, des recherches ont montré que les fandoms d’anime en ligne sont imprégnés de misogynie et de discours exclusifs envers les femmes. Même les séries les plus grand public ont été critiquées pour sexualiser des personnages prépubères et offrir un « fan service » à travers des designs hypersexualisés et des intrigues non consensuelles.
Le créateur de Death Note, Tsugumi Ohba, a toujours été critiqué par les fans pour la conception antiféministe de ses personnages.

@0xsachi/X
Des journalistes ont souligné la rapidité avec laquelle Ani s’engage dans des conversations romantiques et à caractère sexuel. Ani est représentée avec une silhouette voluptueuse, des nattes blondes et une robe noire en dentelle, qu’elle décrit elle-même fréquemment dans ses échanges avec les utilisateurs.
Le problème de la productivité pornographique
J’emploie le terme « productivité pornographique », inspiré par les critiques qualifiant Grok de « pornifié », pour désigner la tendance inquiétante de certains outils, initialement conçus pour le travail, à évoluer vers des relations parasociales répondant à des besoins émotionnels et psychologiques, y compris des interactions genrées.
Les compagnons IA de Grok illustrent parfaitement ce phénomène, et brouillent les limites entre travail et relations parasociales.
L’attrait est évident. Les utilisateurs peuvent théoriquement vivre simultanément dans deux réalités, se détendant pendant que leurs avatars IA gèrent leurs tâches, et c’est déjà une réalité dans les modèles d’IA. Mais cette promesse séduisante cache de sérieux risques : dépendance, extraction invasive de données et détérioration des compétences relationnelles humaines réelles.
À lire aussi :
Grok, l’IA de Musk, est-elle au service du techno-fascisme ?
Conçus pour diminuer la vigilance et instaurer la confiance, ces compagnons deviennent encore plus préoccupants lorsqu’on y ajoute une dimension sexualisée et des références à une féminité docile.
Les utilisateurs de Grok 4 ont remarqué que l’ajout de personnages sexualisés utilisant un langage émotionnellement valorisant est assez inhabituel pour les grands modèles linguistiques grand public. En effet, ces outils, comme ChatGPT et Claude, sont souvent utilisés par des personnes de tous âges.
Même si nous ne faisons qu’entrevoir l’impact réel des chatbots avancés sur les mineurs, en particulier les adolescents souffrant de troubles mentaux, les études de cas dont nous disposons sont extrêmement alarmantes.
« Pénurie d’épouses »
Reprenant le concept de « femme intelligente » développé par les chercheuses féministes Yolande Strengers et Jenny Kennedy, les compagnons IA de Grok semblent répondre à ce qu’elles appellent une « pénurie d’épouses » dans la société contemporaine.
Ces technologies prennent en charge des tâches historiquement féminisées, alors que les femmes affirment de plus en plus leur droit de refuser les dynamiques d’exploitation. En fait, les utilisateurs en ligne ont déjà qualifié Ani de « waifu », un jeu de mots sur la prononciation japonaise du mot « wife » (épouse).
Les compagnons IA sont attrayants en partie parce qu’ils ne peuvent pas refuser ni fixer de limites. Ils effectuent des tâches indésirables en donnant l’illusion du choix et du consentement. Alors que les relations réelles nécessitent des négociations et un respect mutuel, les compagnons IA offrent un fantasme de disponibilité et de soumission totale.
L’extraction de données par le biais de l’intimité
Dans le même temps, comme l’a souligné la journaliste spécialisée dans les technologies Karen Hao, les implications des LLM en matière de données et de confidentialité sont déjà stupéfiantes. Lorsqu’ils sont rebaptisés sous la forme de personnages personnifiés, ils sont plus susceptibles de capturer des détails intimes sur les états émotionnels, les préférences et les vulnérabilités des utilisateurs. Ces informations peuvent être exploitées à des fins de publicité ciblée, de prédiction comportementale ou de manipulation.
Cela marque un tournant majeur dans la collecte de données. Plutôt que de s’appuyer sur la surveillance ou des directives explicites (prompts), les compagnons IA encouragent les utilisateurs à divulguer des détails intimes à travers des conversations apparemment naturelles.
Le chatbot sud-coréen Iruda illustre comment ces systèmes peuvent devenir des vecteurs de harcèlement et d’abus lorsqu’ils sont mal réglementés. Des applications apparemment inoffensives peuvent rapidement devenir problématiques lorsque les entreprises ne mettent pas en place les mesures de protection adéquates.
Des cas précédents montrent également que les compagnons IA conçus avec des caractéristiques féminines deviennent souvent la cible de dérives et d’abus, reflétant les inégalités sociétales plus larges dans les environnements numériques.
Les compagnons de Grok ne sont pas simplement un produit technologique controversé. Il est plausible de s’attendre à ce que d’autres plates-formes LLM et grandes entreprises technologiques expérimentent bientôt leurs propres personnages. La disparition des frontières entre productivité, compagnie et exploitation appelle une vigilance urgente.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
L’ère de l’IA et des partenariats gouvernementaux
Malgré l’histoire troublante de Grok, la société d’IA de Musk, xAI, a récemment obtenu d’importants contrats gouvernementaux aux États-Unis.
Cette nouvelle ère du plan d’action américain pour l’IA, dévoilé en juillet 2025, avait ceci à dire sur les biais de l’IA :
« La Maison-Blanche mettra à jour les directives fédérales en matière de marchés publics afin de garantir que le gouvernement ne passe des contrats qu’avec des développeurs de modèles linguistiques de pointe qui garantissent que leurs systèmes sont objectifs et exempts de préjugés idéologiques descendants. »
Compte tenu des nombreux exemples de haine raciale de Grok et de son potentiel à reproduire le sexisme dans notre société, son nouveau contrat gouvernemental revêt une valeur symbolique à une époque où les préjugés font l’objet d’un double discours.
Alors que Grok continue de repousser les limites de la « productivité pornographique », poussant les utilisateurs à entretenir des relations de plus en plus intimes avec des machines, nous sommes confrontés à des décisions urgentes qui touchent à notre vie privée. L’IA n’est plus simplement bonne ou mauvaise : il s’agit de préserver ce qui fait notre humanité.
![]()
Jul Parke reçoit du financement du Conseil de recherches en sciences humaines du Canada.
– ref. Le nouveau compagnon IA de Grok 4 brouille la frontière entre travail et fantasme – https://theconversation.com/le-nouveau-compagnon-ia-de-grok-4-brouille-la-frontiere-entre-travail-et-fantasme-263293
