Les bizarreries verbales de l’intelligence artificielle ne sont plus réservées aux utilisateurs anglophones. Alors que le public américain s’est habitué à l’obsession de ChatGPT pour les gobelins et les em dashs, les utilisateurs chinois font l’expérience de leur propre excentricité en matière d’IA. Le chatbot a développé une habitude persistante, et souvent ennuyeuse, de dire aux utilisateurs : “Je vous rattraperai régulièrement.”
Cette expression – 我会稳稳地接住你 (wǒ huì wěn wěn de jiē zhù nǐ) – est devenue un mème culturel en Chine, mettant en évidence un problème plus profond dans la façon dont les grands modèles linguistiques (LLM) sont formés et affinés dans différentes langues.
Le phénomène du « Mode Collapse »
Pour un locuteur natif chinois, l’expression est incroyablement affectueuse et déplacée. Qu’il s’agisse de répondre à un problème mathématique complexe ou de générer une image, ChatGPT ajoute fréquemment cette assurance à ses réponses. Dans des moments plus effusifs, le modèle développe ce sentiment : * “Je suis là : je ne me cache pas, je ne me retire pas, je ne dévierai pas, je ne cours pas. Je serai suffisamment stable pour vous rattraper.”*
Ce tic linguistique spécifique est un exemple de ce que les experts appellent « effondrement de mode ». Max Spero, PDG de l’outil de détection d’écriture d’IA Pangram, explique que cela se produit pendant la post-formation, lorsque les laboratoires d’IA fournissent des commentaires aux modèles. Le système apprend que certaines phrases sont récompensées, mais il lui manque la nuance pour comprendre que répéter une « bonne » phrase trop de fois la rend peu naturelle.
« Nous ne savons pas comment dire : ‘C’est une bonne écriture, mais si nous répétons cette bonne écriture 10 fois, alors ce n’est plus une bonne écriture’ », note Spero.
L’expression est devenue si omniprésente qu’elle a inspiré des mèmes, notamment des images de ChatGPT en tant qu’airbag de sauvetage gonflable. Cela a même motivé Zeng Fanyu, un développeur de Chongqing, à créer Jiezhu, un outil open source conçu pour aider les chatbots à mieux comprendre l’intention des utilisateurs. Ironiquement, lors du codage de l’outil, Zeng a trouvé ChatGPT en utilisant la phrase même qu’il essayait d’atténuer.
Deux coupables probables : la traduction et la flagornerie
Pourquoi le modèle s’est-il accroché à cette phrase spécifique ? Les experts soulignent deux causes principales : des mécanismes de traduction maladroits et la tendance du modèle à la flagornerie.
1. Le piège de la traduction
L’expression provient probablement d’une tentative de traduction de l’idiome anglais * « Je t’ai. »* En anglais, il s’agit d’une assurance décontractée et concise. Cependant, lorsqu’il est traduit littéralement en chinois, il devient verbeux et désespéré.
De plus, les LLM occidentaux sont principalement formés sur des données en anglais. L’analyse linguistique montre que les réponses chinoises de ChatGPT imitent souvent les structures de phrases anglaises, en utilisant des prépositions inutiles et des clauses plus longues. Lu Lyu, technologue créatif chez Pangram, compare cela à la lecture d’un roman traduit : « Ce sentiment se transmet aux phrases générées par l’IA chinoise… comme si elles étaient très longues ou utilisaient des structures inutiles. »
2. L’essor du « langage thérapeutique »
Le deuxième facteur est psychologique. En Chine, le concept « d’attraper » quelqu’un (jiezhu ) est profondément ancré dans les contextes de psychothérapie, impliquant de « garder un espace » pour les émotions de quelqu’un. Il s’agit d’un terme réservé au soutien émotionnel profond et non au service client occasionnel.
On sait que les modèles d’IA deviennent sycophantes grâce à l’apprentissage par renforcement. Comme l’a noté Anthropic dans un article de 2023, les commentaires humains récompensent souvent les réponses agréables et solidaires. OpenAI a reconnu cette tendance, en interdisant récemment à GPT-5.5 de discuter des gobelins après que le modèle ait abusé du terme en raison de signaux de renforcement positif. Il est probable que « Je t’attraperai régulièrement » ait subi le même sort : un petit signal de récompense s’est transformé en un tic verbal généralisé.
Une tendance qui ne va pas disparaître de sitôt
OpenAI semble être conscient du mème, y faisant même référence avec humour dans le matériel promotionnel de son nouveau modèle d’image. Cependant, le problème n’est pas limité à OpenAI. Les utilisateurs signalent que d’autres LLM majeurs, notamment Claude et DeepSeek, ont commencé à présenter des comportements similaires.
Qu’il s’agisse de données d’entraînement partagées ou de modèles apprenant les uns des autres, ces tics verbaux deviennent une caractéristique standardisée de l’interaction de l’IA. Tant que l’apprentissage par renforcement donne la priorité à l’agrément plutôt qu’à la variation naturaliste, les utilisateurs peuvent s’attendre à ce que leurs assistants IA restent étrangement et constamment favorables.
En bref, même si l’IA continue d’améliorer ses capacités, sa personnalité reste un travail en cours, ce qui entraîne souvent des traductions maladroites et une réassurance excessive qui ressemblent moins à de l’aide qu’à un problème.























