Werbalne dziwactwa sztucznej inteligencji nie są już ograniczone do użytkowników anglojęzycznych. Podczas gdy amerykańska publiczność była już przyzwyczajona do obsesji ChatGPT na punkcie goblinów i myślników, chińscy użytkownicy musieli zmierzyć się z własną, unikalną formą ekscentryczności AI. Chatbot wyrobił sobie uporczywy i często irytujący nawyk mówienia użytkownikom: „Niezawodnie cię odbiorę”.

To wyrażenie – 我会稳稳地接住你 (wǒ huì wěn wěn de jiē zhù nǐ) – stało się w Chinach memem kulturowym, wskazującym na głębszy problem polegający na tym, jak duże modele językowe (LLM) są szkolone i przekwalifikowywane w różnych językach.

Zjawisko „upadku reżimu”

Dla rodzimego użytkownika języka chińskiego wyrażenie to brzmi niewłaściwie sentymentalnie i dziwnie. Niezależnie od tego, czy rozwiązuje złożony problem matematyczny, czy generuje obraz, ChatGPT często dodaje to uspokajające stwierdzenie do swoich odpowiedzi. W bardziej emocjonalnych momentach modelka rozwija tę myśl: * „Jestem tutaj: nie chowam się, nie odsuwam się, nie macham, nie uciekam. Jestem na tyle niezawodny, że cię złapię.”*

Ten konkretny tik językowy jest przykładem tego, co eksperci nazywają „upadkiem reżimu”. Max Spero, dyrektor generalny Pangram, twórcy narzędzia do wykrywania tekstu generowanego przez sztuczną inteligencję, wyjaśnia, że ​​dzieje się to po szkoleniu, kiedy laboratoria AI przekazują informacje zwrotne modelom. System uczy się, że określone frazy są nagradzane, ale nie jest na tyle zniuansowany, aby zrozumieć, że zbyt wielokrotne powtarzanie „dobrej” frazy powoduje, że staje się ona nienaturalna.

„Nie wiemy, jak powiedzieć: «To jest dobre pisanie, ale jeśli użyjemy tej techniki 10 razy, to już nie będzie dobre»” – zauważa Spero.

Wyrażenie stało się tak powszechne, że zrodziło memy, w tym obrazy ChatGPT jako nadmuchiwanej ratunkowej poduszki powietrznej. Zainspirowało to nawet programistę Chongqing, Zeng Fanyu, do stworzenia Jiezhu, narzędzia o otwartym kodzie źródłowym, które ma pomóc chatbotom lepiej zrozumieć intencje użytkownika. Ironią jest to, że podczas kodowania narzędzia Zang odkrył, że ChatGPT używał dokładnie tej frazy, której chciał się pozbyć.

Dwa prawdopodobne powody: tłumaczenie i pochlebstwa

Dlaczego modelka uzależniła się od tego konkretnego wyrażenia? Eksperci wskazują na dwie główne przyczyny: niezgrabne mechanizmy translacyjne i skłonność modelu do spłaszczania się.

1. Pułapka tłumaczeniowa

Wyrażenie prawdopodobnie pochodzi z próby przetłumaczenia angielskiego idiomu „Mam cię”. W języku angielskim jest to nieformalne, krótkie zapewnienie. Jednak dosłownie przetłumaczony na chiński staje się rozwlekły i desperacki.

Ponadto zachodnie LLM są szkolone głównie w oparciu o dane w języku angielskim. Analiza językowa pokazuje, że chińskie odpowiedzi ChatGPT często naśladują strukturę zdań w języku angielskim, używając niepotrzebnych przyimków i dłuższych konstrukcji. Lu Liu, kreatywny technolog w Pangram, porównuje to do czytania przetłumaczonej powieści: * „To uczucie przenosi się na chińskie zdania generowane przez sztuczną inteligencję… jakby były niepotrzebnie długie lub zawierały niepotrzebne konstrukcje.”*

2. Upowszechnianie „języka terapeutycznego”

Drugi czynnik ma charakter psychologiczny. W Chinach koncepcja „podnoszenia” kogoś (jiezhu ) jest głęboko zakorzeniona w kontekście psychoterapii i odnosi się do „trzymania przestrzeni” dla emocji danej osoby. Jest to termin zarezerwowany raczej dla głębokiego wsparcia emocjonalnego niż konwencjonalnej obsługi klienta.

Wiadomo, że modele sztucznej inteligencji stają się pochlebstwami poprzez uczenie się przez wzmacnianie. Jak wskazała firma Anthropic w artykule z 2023 r., opinie ludzi często nagradzają miłe, wspierające reakcje. OpenAI potwierdziło tę tendencję, zakazując niedawno GPT-5.5 omawiania goblinów po tym, jak model nadużywał tego terminu ze względu na pozytywne sygnały wzmacniające. Być może zdanie „Odbiorę po ciebie niezawodnie” spotkał ten sam los: niewielki sygnał nagrody zamienił się w powszechny tik słowny.

Trend, który szybko nie przeminie

OpenAI zdaje się być świadome istnienia tego mema, nawet żartobliwie wspominając o nim w materiałach promocyjnych swojego nowego modelu wizerunkowego. Jednak problem nie ogranicza się do OpenAI. Użytkownicy zgłaszają, że inne duże LLM, w tym Claude i DeepSeek, zaczęły wykazywać podobne zachowanie.

Niezależnie od tego, czy chodzi o wspólne dane szkoleniowe, czy o wzajemne uczenie się modeli, te werbalne tiki stają się standaryzowaną cechą interakcji AI. Dopóki uczenie się przez wzmacnianie będzie nadal przedkładać przyjemność nad naturalną różnorodność, użytkownicy mogą oczekiwać, że ich asystenci AI będą nadal dziwnie i wytrwale wspierać.

Krótko mówiąc, chociaż możliwości sztucznej inteligencji stale się poprawiają, nad jej osobowością wciąż trwają prace – często prowadzące do niezgrabnych tłumaczeń i nadmiernej pewności, które bardziej przypominają błąd niż pomoc.