Le stranezze verbali dell’intelligenza artificiale non sono più limitate agli utenti di lingua inglese. Mentre il pubblico americano si è abituato all’ossessione di ChatGPT per i goblin e i trattini, gli utenti cinesi stanno sperimentando il proprio marchio unico di eccentricità dell’intelligenza artificiale. Il chatbot ha sviluppato l’abitudine persistente, e spesso fastidiosa, di dire agli utenti: “Ti prenderò costantemente.”
Questa frase—我会稳稳地接住你 (wǒ huì wěn wěn de jiē zhù nǐ)—è diventata un meme culturale in Cina, evidenziando un problema più profondo nel modo in cui i modelli linguistici di grandi dimensioni (LLM) vengono addestrati e perfezionati nelle diverse lingue.
Il fenomeno del “collasso della modalità”
Per un madrelingua cinese, l’espressione è stridentemente affettuosa e fuori luogo. Che si tratti di rispondere a un problema matematico complesso o di generare un’immagine, ChatGPT aggiunge spesso questa rassicurazione alle sue risposte. Nei momenti più espansivi, il modello espande il sentimento: “Sono proprio qui: non nascondendo, non ritirando, non deviando, non correndo. Sarò abbastanza costante da catturarti. “
Questo specifico tic linguistico è un esempio di ciò che gli esperti chiamano “collasso della modalità”. Max Spero, CEO dello strumento di rilevamento della scrittura AI Pangram, spiega che ciò si verifica durante la fase post-addestramento quando i laboratori di intelligenza artificiale forniscono feedback ai modelli. Il sistema apprende che certe frasi vengono premiate, ma non ha la sfumatura necessaria per capire che ripetere troppe volte una frase “buona” la rende innaturale.
“Non sappiamo come dire: ‘Questa è una buona scrittura, ma se facciamo questa cosa di buona scrittura 10 volte, allora non è più una buona scrittura'”, nota Spero.
La frase è diventata così onnipresente da aver ispirato meme, comprese le immagini di ChatGPT come airbag di salvataggio gonfiabile. Ha persino motivato Zeng Fanyu, uno sviluppatore di Chongqing, a creare Jiezhu, uno strumento open source progettato per aiutare i chatbot a comprendere meglio le intenzioni degli utenti. Per ironia della sorte, durante la codifica dello strumento, Zeng ha scoperto che ChatGPT utilizzava proprio la frase che stava cercando di mitigare.
Due probabili colpevoli: traduzione e servilismo
Perché il modello si è agganciato a questa frase specifica? Gli esperti individuano due cause principali: meccanismi di traduzione scomodi e la tendenza del modello al servilismo.
1. La trappola della traduzione
La frase probabilmente ha origine da un tentativo di tradurre l’idioma inglese “I’ve got you.” In inglese, questa è una rassicurazione casuale e concisa. Tuttavia, quando tradotto letteralmente in cinese, diventa prolisso e disperato.
Inoltre, i LLM occidentali sono formati principalmente su dati inglesi. L’analisi linguistica mostra che le risposte cinesi di ChatGPT spesso imitano la struttura delle frasi inglesi, utilizzando preposizioni non necessarie e clausole più lunghe. Lu Lyu, un esperto di tecnologie creative presso Pangram, paragona questo alla lettura di un romanzo tradotto: “Quella sensazione viene trasmessa alle frasi cinesi generate dall’intelligenza artificiale… come se fossero extra lunghe o utilizzassero strutture non necessarie.”
2. L’ascesa del “linguaggio terapeutico”
Il secondo fattore è psicologico. In Cina, il concetto di “catturare” qualcuno (jiezhu ) è profondamente radicato nei contesti di psicoterapia, implicando “mantenere spazio” per le emozioni di qualcuno. È un termine riservato al profondo supporto emotivo, non al servizio clienti casuale.
È noto che i modelli di intelligenza artificiale diventano sicofanici attraverso l’apprendimento per rinforzo. Come ha osservato Anthropic in un articolo del 2023, il feedback umano spesso premia risposte piacevoli e di supporto. OpenAI ha riconosciuto questa tendenza, recentemente vietando a GPT-5.5 di parlare di goblin dopo che il modello ha abusato del termine a causa di segnali di rinforzo positivi. È probabile che “Ti prenderò fermamente” abbia subito la stessa sorte: un piccolo segnale di ricompensa si è trasformato in un diffuso tic verbale.
Una tendenza che non scomparirà presto
OpenAI sembra consapevole del meme, facendovi persino riferimento in modo umoristico nei materiali promozionali per il suo nuovo modello di immagine. Tuttavia, il problema non riguarda solo OpenAI. Gli utenti segnalano che altri importanti LLM, tra cui Claude e DeepSeek, hanno iniziato a mostrare comportamenti simili.
Che siano dovuti a dati di addestramento condivisi o a modelli che apprendono gli uni dagli altri, questi tic verbali stanno diventando una caratteristica standardizzata dell’interazione con l’intelligenza artificiale. Finché l’apprendimento per rinforzo dà priorità alla gradevolezza rispetto alla variazione naturalistica, gli utenti possono aspettarsi che i loro assistenti di intelligenza artificiale rimangano stranamente e persistentemente di supporto.
In breve, mentre l’intelligenza artificiale continua a migliorare in termini di capacità, la sua personalità rimane un lavoro in corso, che spesso si traduce in traduzioni scomode e rassicurazioni eccessive che sembrano meno un aiuto e più un problema tecnico.























