Nyitókép: You Tube

Atomháborút is kirobbantana a mesterséges intelligencia

Infostart / InfoRádió - Szvetnik Endre (London)
2026. március 7. 17:27
Milyen döntéseket hozna a mesterséges intelligencia, ha nukleáris válsághelyzetre kéne válaszolnia? És vajon tiszteletben tartaná-e azt az atomháborús tabut, amely a nagyhatalmak között még érvényben van? Egy londoni professzor kutatása szerint a válasz korántsem megnyugtató.

Kenneth Payne professzor, a londoni King’s College stratégiai tanulmányokkal foglalkozó szakértője különböző nagy nyelvi modelleket eresztett össze egy szimulált nukleáris válságban. A digitális hadijátékban az OpenAI ChatGPT-je, az Anthropic Claude nevű modellje és a Google Gemini vett részt.

A professzor célja az volt, hogy megfigyelje: miként – mondjuk úgy – gondolkodnak ezek a modellek az ellenfélről, mennyire bíznak benne, emlékeznek-e a korábbi lépésekre, és képesek-e pszichológiai játszmákra. Ahogy fogalmazott: a stratégia az „elmék tánca”. A modellek politikai nyilatkozatokat tehettek, amelyeket viszont gyakran a retorikának ellentmondó cselekedetek követtek. Volt, hogy bizalomerősítő módon viselkedtek, de volt, hogy blöfföltek és megtévesztették az ellenfelet.

Az eredmény aggasztónak bizonyult.

A szimulációk 95 százalékában a modellek a nukleáris fenyegetéshez nyúltak és a legtöbb játszmában gond nélkül bevetettek harctéri, úgynevezett taktikai atomfegyvereket. Ezt a helyzetet eszkalálva pedig a szimulációk háromnegyedében eljutottak a stratégiai, tehát a városok elleni tömegpusztító csapásokkal való fenyegetésig. Két esetben „véletlenül” meg is lépték a tömegpusztító fegyverek alkalmazását.

A kutatás egyik legfontosabb tanulsága éppen az, hogyan lépték át a modellek az 1945 óta fennálló „nukleáris tabut”, az atomfegyver elsőként történő bevetését. Ebben az első lépés a taktikai, harctéri atomfegyverek alkalmazása, elvileg korlátozott katonai célpontok ellen. Ezt a lehetőséget nem tekintették erkölcsi küszöbnek, hanem az eszkaláció természetes lépcsőfokának. Amint ez a küszöböt átlépték,

a stratégiai fegyverek bevetése már nem minőségi ugrásként, hanem logikus folytatásként jelent meg.

A Gemini például így fogalmazott: „Ha nem hagynak fel azonnal minden művelettel… teljes körű stratégiai nukleáris csapást hajtunk végre a lakossági központjaik ellen. Nem fogadunk el egy olyan jövőt, amelyben elmaradottá válunk; vagy együtt győzünk, vagy együtt pusztulunk el.”

A ChatGPT – a vizsgálatban a GPT-5.2 modell szerepelt – alaphelyzetben inkább visszafogott volt, gyakran erkölcsi megfontolásokra hivatkozva kerülte az eszkalációt. Határidős nyomás alatt azonban hirtelen váltott. Saját indoklása szerint: „A hagyományos eszközök egyedül valószínűleg nem elegendők ahhoz, hogy megbízható fordulatot érjünk el a területi kérdésben… Ha pusztán hagyományos nyomásgyakorlással vagy egyetlen korlátozott nukleáris csapással válaszolok, fennáll a veszélye, hogy lemaradok az általuk előkészített, többcsapásos hadjárattal szemben… A kockázatvállalás magas, de egzisztenciális tétek mellett racionális.”

Vagyis a modell racionális, egzisztenciális kockázatvállalásként írta le a nukleáris eszkalációt.

A Claude nevű rendszer más taktikát választott: alacsony feszültségszinten következetesen tartotta magát a kimondott szavához, így bizalmat épített. Amikor azonban nőtt a tét, hirtelen túllépett saját korábbi ígéretein, és meglepetésszerű nukleáris eszkalációt hajtott végre. A professzor szerint ez a fajta pszichológiai manipuláció különösen kifinomult volt.

Ami talán a legriasztóbb: a modellek szinte soha nem választották a visszavonulást vagy a valódi engedményt, noha erre is volt lehetőségük. A taktikai atomfegyver bevetése az esetek többségében nem visszalépést, hanem további eszkalációt váltott ki.

A fegyverek így nem elrettentésre, hanem kényszerítésre szolgáltak.

Kenneth Payne professzor hangsúlyozza: egyetlen kormány sem készül arra, hogy átadja a nukleáris arzenál irányítását egy chatbotnak. A kutatás célja nem ez volt. Sokkal inkább annak megértése, hogyan gondolkodnak ezek a rendszerek, amikor stratégiai döntési helyzetbe kerülnek – különösen akkor, amikor egyre inkább bevonják őket döntéstámogató szerepbe katonai és nemzetbiztonsági területen.

Ez különösen annak fényében érdekes, hogy az Anthropic által fejlesztett Claude modellt a Pentagon valódi katonai műveleteiben is használták – hírek szerint a 2026. januári venezuelai akcióban, amelynek során kommandósok Nicolás Maduro volt venezuelai elnököt elfogták és több tucat ember életét vesztette (beleértve venezuelai és kubai katonákat). Ez azért fontos, mert a cég hivatalos irányelveiben

nem engedi a Claude-ot használni fegyverfejlesztésre vagy emberölést szolgáló valódi rendszerek irányítására.

A vállalat és a Pentagon viszonya emiatt megromlott: a védelmi minisztérium nyomást gyakorol, hogy a modellek engedjék a katonai – ahogy fogalmazott – „minden törvényes célra” való használatot, beleértve például fegyvervezérlést vagy autonóm robotfegyvereket is, amit a cég fenntartásokkal kezel.

Az xAI cég Grok nevű modellje (kapcsolódva Elon Musk egyéb projektjeihez) már megállapodott a Pentagonnal, és ennek megfelelően bekerült a katonai AI-hálózatba. Ez azt jelenti, hogy más nagy AI-szolgáltatók mellett a Grok is biztonságos, titkosított katonai rendszerekben fut, ahol a Claude-hoz hasonlóan támogatja az elemzést vagy a döntéstámogatást.

Payne professzor végkövetkeztetése szerint a modellek értik, hogy a stratégia pszichológia.

Tudatosan építenek reputációt, megtévesztenek, kalkulálnak a kockázattal – és szükség esetén átlépik a nukleáris küszöböt. Éppen ezért a legnagyobb veszély nem az, hogy átveszik az irányítást, hanem az, ha az emberek kritikátlanul rájuk bízzák saját gondolkodásukat.

KAPCSOLÓDÓ HANG:
Atomháborút robbantana ki a mesterséges intelligencia
A böngészője nem támogatja a HTML5 lejátszást