Érdekes bejegyzések jelentek meg kedden különböző közösségimédia-felületeken. Sean McGuire, a Gensler globális építészeti cég vezetője például arról osztott meg képernyőképeket az X-en, hogy a ChatGPT a kérdéseire értelmetlen „spanglish” nyelven, vagyis az angol szövegbe spanyol szavakat keverve, zagyva mondatokkal válaszolt.
Egy másik felhasználó megkérdezte a ChatGPT-t a matracok közötti eltérésekről a különböző ázsiai országokban. Az algoritmus egyszerűen nem tudott megbirkózni ezzel a feladattal.
A Redditen megjelent egy másik beszámoló, amelyben a kérdező arra panaszkodik, hogy a GPT-4 „átment hallucinációs módba”, és ilyen durva helyzetet „a GPT-3 korai napjai óta” nem láttak - írta a Business Insider.
Az Independent arról is beszámolt, hogy szintén a Redditen valaki kiposztolta: a bakeliten hallgatható jazzalbumokkal kapcsolatban a jól kezdődő válasz végül a „Boldog hallgatást!” kívánság ismétlésévé váltott át. A felhasználó szerint a ChatGPT „hülyeségeket beszélt”.
chatgpt is apparently going off the rails right now and no one can explain why pic.twitter.com/0XSSsTfLzP
— sean mcguire (@seanw_m) February 21, 2024
Az OpenAI elismerte a problémát, először azt közölve, hogy „kivizsgálja a ChatGPT váratlan válaszairól szóló jelentéseket”. Nyolc órával később már arról értesítették a felhasználókat, hogy kijavították a hibát, ami a közlés szerint a felhasználói élmény optimalizálását célzó változtatásaik közben keletkezett.
A nagy nyelvi modellek (large language model - LLM, amilyen a ChatGPT is) tanításakor a szövegeket nem szavakra, hanem a szavaknál kisebb tokenekre bontják fel, a modell pedig a működése során folyamatosan megpróbálja megjósolni a következő tokent, így épül fel az általa adott válasz. Vagyis ha valaki beírja, hogy szépen süt... akkor az algoritmus a valószínűség alapján úgy fejezi be a mondatot, hogy ...a nap.
Ebben a valószínűségi, kiválasztási rendszerben történt zavar az OpenAI magyarázata szerint, ezért adott a CHATGPT értelmetlen szósorozatokat válaszként.