Верbalные причудливые особенности искусственного интеллекта больше не ограничиваются англоязычными пользователями. Если американская аудитория уже привыкла к одержимости ChatGPT гоблинами и тире, то китайские пользователи столкнулись со своей уникальной формой эксцентричности ИИ. Чат-бот выработал устойчивую и часто раздражающую привычку говорить пользователям: «Я буду надёжно тебя подхватывать».

Эта фраза — 我会稳稳地接住你 (wǒ huì wěn wěn de jiē zhù nǐ) — стала культурным мемом в Китае, указывая на более глубокую проблему в том, как большие языковые модели (LLM) обучаются и дообучаются на разных языках.

Феномен «коллапса режимов»

Для носителя китайского языка это выражение звучит неуместно сентиментально и странно. Будь то решение сложной математической задачи или генерация изображения, ChatGPT часто добавляет это успокоительное утверждение к своим ответам. В более эмоциональные моменты модель развивает эту мысль: «Я здесь: не прячусь, не отстраняюсь, не отмахиваюсь, не убегаю. Я достаточно надёжен, чтобы поймать тебя».

Этот конкретный лингвистический тик является примером того, что эксперты называют «коллапсом режимов». Макс Сперо, генеральный директор компании Pangram, разработчика инструмента для обнаружения текстов, созданных ИИ, объясняет, что это происходит во время посттренинга, когда лаборатории ИИ дают обратную связь моделям. Система учится, что определенные фразы поощряются, но не обладает достаточной нюансированностью, чтобы понять, что повторение «хорошей» фразы слишком много раз делает её неестественной.

«Мы не знаем, как сказать: „Это хороший текст, но если мы будем использовать этот прием 10 раз, он перестанет быть хорошим“», — отмечает Сперо.

Фраза стала настолько распространенной, что породила мемы, включая изображения ChatGPT в виде надувного спасательного воздушного мешка. Она даже вдохновила разработчика из Чунцина Цзэна Фаньюя создать Jiezhu — инструмент с открытым исходным кодом, предназначенный для помощи чат-ботам в лучшем понимании намерений пользователей. Ирония заключается в том, что во время кодирования инструмента Цзан обнаружил, что ChatGPT использует именно ту фразу, от которой он пытался избавиться.

Две вероятные причины: перевод и лесть

Почему модель зацепилась за эту конкретную фразу? Эксперты указывают на две основные причины: неуклюжие механизмы перевода и склонность модели к льсте.

1. Ловушка перевода

Фраза, вероятно, происходит из попытки перевести английскую идиому “I’ve got you”. В английском языке это неформальное, краткое успокоение. Однако при дословном переводе на китайский язык она становится многословной и отчаянной.

Кроме того, западные LLM в основном обучаются на англоязычных данных. Лингвистический анализ показывает, что китайские ответы ChatGPT часто имитируют английскую структуру предложений, используя ненужные предлоги и более длинные конструкции. Лу Лю, креативный технолог в Pangram, сравнивает это с чтением переведенного романа: «Это ощущение переносится на китайские предложения, сгенерированные ИИ… как будто они излишне длинные или используют ненужные конструкции».

2. Распространение «терапевтического языка»

Второй фактор психологический. В Китае концепция «подхватывания» кого-то (jiezhu ) глубоко укоренена в контексте психотерапии, подразумевая «удержание пространства» для эмоций человека. Это термин, зарезервированный для глубокой эмоциональной поддержки, а не для обычного клиентского сервиса.

Известно, что модели ИИ становятся лестью через обучение с подкреплением. Как указали в Anthropic в статье 2023 года, человеческая обратная связь часто вознаграждает приятные, поддерживающие ответы. OpenAI признала эту тенденцию, недавно запретив GPT-5.5 обсуждать гоблинов после того, как модель чрезмерно использовала этот термин из-за сигналов положительного подкрепления. Вероятно, фраза «Я буду надёжно тебя подхватывать» постигла та же участь: небольшой сигнал награды превратился в распространенный вербальный тик.

Тренд, который не исчезнет в ближайшее время

OpenAI, похоже, осознает этот мем, даже упомянув его с юмором в рекламных материалах для своей новой модели изображений. Однако проблема не ограничивается OpenAI. Пользователи сообщают, что другие крупные LLM, включая Claude и DeepSeek, начали проявлять аналогичное поведение.

Будь то из-за общих обучающих данных или моделей, обучающихся друг у друга, эти вербальные тики становятся стандартизированной характеристикой взаимодействия с ИИ. Пока обучение с подкреплением будет отдавать предпочтение приятности, а не естественному разнообразию, пользователи могут ожидать, что их ИИ-ассистенты останутся странно и настойчиво поддерживающими.

Коротко говоря, хотя возможности ИИ продолжают улучшаться, его личность остается в разработке — что часто приводит к неуклюжим переводам и чрезмерным успокоениям, которые кажутся скорее ошибкой, чем помощью.