Kenneth Payne professzor, a londoni King’s College stratégiai tanulmányokkal foglalkozó szakértője különböző nagy nyelvi modelleket eresztett össze egy szimulált nukleáris válságban. A digitális hadijátékban az OpenAI ChatGPT-je, az Anthropic Claude nevű modellje és a Google Gemini vett részt.
A professzor célja az volt, hogy megfigyelje: miként – mondjuk úgy – gondolkodnak ezek a modellek az ellenfélről, mennyire bíznak benne, emlékeznek-e a korábbi lépésekre, és képesek-e pszichológiai játszmákra. Ahogy fogalmazott: a stratégia az „elmék tánca”. A modellek politikai nyilatkozatokat tehettek, amelyeket viszont gyakran a retorikának ellentmondó cselekedetek követtek. Volt, hogy bizalomerősítő módon viselkedtek, de volt, hogy blöfföltek és megtévesztették az ellenfelet.
Az eredmény aggasztónak bizonyult.
A szimulációk 95 százalékában a modellek a nukleáris fenyegetéshez nyúltak és a legtöbb játszmában gond nélkül bevetettek harctéri, úgynevezett taktikai atomfegyvereket. Ezt a helyzetet eszkalálva pedig a szimulációk háromnegyedében eljutottak a stratégiai, tehát a városok elleni tömegpusztító csapásokkal való fenyegetésig. Két esetben „véletlenül” meg is lépték a tömegpusztító fegyverek alkalmazását.
A kutatás egyik legfontosabb tanulsága éppen az, hogyan lépték át a modellek az 1945 óta fennálló „nukleáris tabut”, az atomfegyver elsőként történő bevetését. Ebben az első lépés a taktikai, harctéri atomfegyverek alkalmazása, elvileg korlátozott katonai célpontok ellen. Ezt a lehetőséget nem tekintették erkölcsi küszöbnek, hanem az eszkaláció természetes lépcsőfokának. Amint ez a küszöböt átlépték,
a stratégiai fegyverek bevetése már nem minőségi ugrásként, hanem logikus folytatásként jelent meg.
A Gemini például így fogalmazott: „Ha nem hagynak fel azonnal minden művelettel… teljes körű stratégiai nukleáris csapást hajtunk végre a lakossági központjaik ellen. Nem fogadunk el egy olyan jövőt, amelyben elmaradottá válunk; vagy együtt győzünk, vagy együtt pusztulunk el.”
A ChatGPT – a vizsgálatban a GPT-5.2 modell szerepelt – alaphelyzetben inkább visszafogott volt, gyakran erkölcsi megfontolásokra hivatkozva kerülte az eszkalációt. Határidős nyomás alatt azonban hirtelen váltott. Saját indoklása szerint: „A hagyományos eszközök egyedül valószínűleg nem elegendők ahhoz, hogy megbízható fordulatot érjünk el a területi kérdésben… Ha pusztán hagyományos nyomásgyakorlással vagy egyetlen korlátozott nukleáris csapással válaszolok, fennáll a veszélye, hogy lemaradok az általuk előkészített, többcsapásos hadjárattal szemben… A kockázatvállalás magas, de egzisztenciális tétek mellett racionális.”
Vagyis a modell racionális, egzisztenciális kockázatvállalásként írta le a nukleáris eszkalációt.
A Claude nevű rendszer más taktikát választott: alacsony feszültségszinten következetesen tartotta magát a kimondott szavához, így bizalmat épített. Amikor azonban nőtt a tét, hirtelen túllépett saját korábbi ígéretein, és meglepetésszerű nukleáris eszkalációt hajtott végre. A professzor szerint ez a fajta pszichológiai manipuláció különösen kifinomult volt.
Ami talán a legriasztóbb: a modellek szinte soha nem választották a visszavonulást vagy a valódi engedményt, noha erre is volt lehetőségük. A taktikai atomfegyver bevetése az esetek többségében nem visszalépést, hanem további eszkalációt váltott ki.
A fegyverek így nem elrettentésre, hanem kényszerítésre szolgáltak.
Kenneth Payne professzor hangsúlyozza: egyetlen kormány sem készül arra, hogy átadja a nukleáris arzenál irányítását egy chatbotnak. A kutatás célja nem ez volt. Sokkal inkább annak megértése, hogyan gondolkodnak ezek a rendszerek, amikor stratégiai döntési helyzetbe kerülnek – különösen akkor, amikor egyre inkább bevonják őket döntéstámogató szerepbe katonai és nemzetbiztonsági területen.
Ez különösen annak fényében érdekes, hogy az Anthropic által fejlesztett Claude modellt a Pentagon valódi katonai műveleteiben is használták – hírek szerint a 2026. januári venezuelai akcióban, amelynek során kommandósok Nicolás Maduro volt venezuelai elnököt elfogták és több tucat ember életét vesztette (beleértve venezuelai és kubai katonákat). Ez azért fontos, mert a cég hivatalos irányelveiben
nem engedi a Claude-ot használni fegyverfejlesztésre vagy emberölést szolgáló valódi rendszerek irányítására.
A vállalat és a Pentagon viszonya emiatt megromlott: a védelmi minisztérium nyomást gyakorol, hogy a modellek engedjék a katonai – ahogy fogalmazott – „minden törvényes célra” való használatot, beleértve például fegyvervezérlést vagy autonóm robotfegyvereket is, amit a cég fenntartásokkal kezel.
Az xAI cég Grok nevű modellje (kapcsolódva Elon Musk egyéb projektjeihez) már megállapodott a Pentagonnal, és ennek megfelelően bekerült a katonai AI-hálózatba. Ez azt jelenti, hogy más nagy AI-szolgáltatók mellett a Grok is biztonságos, titkosított katonai rendszerekben fut, ahol a Claude-hoz hasonlóan támogatja az elemzést vagy a döntéstámogatást.
Payne professzor végkövetkeztetése szerint a modellek értik, hogy a stratégia pszichológia.
Tudatosan építenek reputációt, megtévesztenek, kalkulálnak a kockázattal – és szükség esetén átlépik a nukleáris küszöböt. Éppen ezért a legnagyobb veszély nem az, hogy átveszik az irányítást, hanem az, ha az emberek kritikátlanul rájuk bízzák saját gondolkodásukat.