„Nem olaj, hanem token hiány van” – mondják az ágazattal foglalkozó kommentátorok, amikor megpróbálják elmagyarázni, mi fékezi az AI menetelését. A mesterséges intelligencia működésének egyik kulcsfogalma ugyanis a „token”: ez az a mértékegység, amely azt jelzi, mennyi számítási erőforrást használ fel egy adott feladat.
Ahogy az AI-rendszerek egyre összetettebb feladatokat látnak el – például autonóm módon írnak programokat vagy kezelnek komplett folyamatokat –, úgy nő robbanásszerűen a tokenigényük is.
Egy amerikai technológiai befektető szerint ma már nem az energia vagy az adat a legégetőbb szűk keresztmetszet, hanem maga a számítási kapacitás.
AI demand is scaling faster than planning cycles.
— Cyril Gupta (@cyrilgupta) May 8, 2026
When usage jumps 10x–80x beyond expectations, the real constraint isn’t models, it’s compute capacity.
Most “limits” you see are just infrastructure catching up. https://t.co/JVbd37VwFM
Az AI ugyanis túllépett azon a szinten, hogy egyszerű kérdésekre válaszoló chatbot legyen: komplex, egymásra épülő feladatokkal zsonglőrködik, gyakran emberi beavatkozás nélkül.
Ez a változás különösen az úgynevezett „agentikus”, azaz „ügynökökre” épülő AI-rendszerek terjedésével gyorsult fel. Ezek az eszközök nem csupán reagálnak, hanem önállóan cselekszenek – például időpontokat szerveznek, üzleti döntéseket készítenek elő, vagy akár teljes szoftvermodulokat fejlesztenek.
Megugrott igény, akadozó rendszerek
A kapacitásigény viszont olyan tempóban nő, amit az infrastruktúra egyszerűen nem képes követni. Ennek a következményei már most is érzékelhetők: szolgáltatáskiesések, lassulások, és olyan döntések, amelyek korábban elképzelhetetlenek lettek volna.
Az Anthropic például – a Claude nevű chatbot gazdája – az elmúlt hónapokban rendszeres leállásokkal küzdött. A cég kénytelen volt korlátozni a felhasználók által igénybe vehető kapacitást a csúcsidőszakokban, ami komoly felháborodást váltott ki az ügyfelek körében.
Egy vállalati felhasználó például így fogalmazott az X-en:
„Hetek óta nem értem el a limitet, most meg 45 perc alatt kifutottam belőle.”
Egy másik bejegyzésből pedig kiköszönt a maró gúny:
„A Claude jelenleg a legjobb fejlesztői AI – amikor épp működik.”
A problémák különösen azért aggasztók, mert az AI-szolgáltatások egyre inkább a létfontosságú infrastruktúra részévé válnak. Ha megbízhatatlanok, az közvetlen hatással van cégek működésére és termelékenységére.
Capacity pressure is already visible.
— Jonathan Lishawa (@jlishawa) May 9, 2026
Anthropic has introduced rate limits and peak-hour throttling. OpenAI routes some constrained requests to smaller models. Anthropic is now leasing xAI’s 300MW Colossus 1 data centre to ease Claude limits.
This is not a 2027 problem. It is…
A Krumpli és a Nagy Grafikus Processzor Hajsza
A háttérben egy egyszerű, de nehezen kezelhető probléma áll: nincs elég hardver. Az AI-modellek tanításához és futtatásához szükséges grafikus processzorok (GPU-k) iránti kereslet az egekbe szökött.
A piacot domináló Nvidia legújabb chipjeinek bérleti díja például néhány hónap alatt közel 50 százalékkal emelkedett. Egy csúcskategóriás GPU egyórás használata ma már több mint 4 dollárba kerül, és az árak tovább nőhetnek.
A ChatGPT-ről ismert OpenAI pedig gyorsan nyugdíjazta video-generáló alkalmazását, a Sorát, azért, hogy az intenzív kódíráshoz és üzleti alkalmazásokhoz fontos számítógépes kapacitást szabadítson fel, továbbá, hogy több forrást tudjon átirányítani új modelljére, a Spud-ra (ami egyébként krumplit jelent) – írta a Wall Street Journal.
A helyzetet súlyosbítja, hogy az új adatközpontok építése évekbe telik, és az energiaellátás is korlátozott. Egy iparági vezető szerint a 2026-ig elérhető villamosenergia-kapacitás nagy részét már lekötötték.
Ez azt jelenti, hogy még ha a cégek azonnal beruháznának is, az új kapacitások csak évek múlva állnának rendelkezésre.
Drasztikus döntések a kulisszák mögött
A hiány miatt a technológiai cégek egyre keményebb döntésekre kényszerülnek. Az OpenAI pénzügyi vezetője nyíltan beszélt arról, hogy folyamatosan keresik „az adott pillanatban elérhető” számítási kapacitásokat (úgynevezett spot-árakon, hasonlóan ahhoz, ahogy a földgázt nem tároló ügyfelek is spot-árakon vásárolnak), és sok esetben egyszerűen le kell mondaniuk bizonyos projektekről.
Közben az vállalat API-szolgáltatásának használata elképesztő tempóban nő: néhány hónap alatt több mint kétszeresére emelkedett az igénybevétel. (Az API egyfajta „pincér”, amely kiszolgálja a „vendéget”, aki nem mehet be a konyhába, de rendelést leadhat, ami után azt kihozzák neki. Példa: egy app, amely időjárási adatokat jelenít meg, valójában egy API útján kéri ki azokat egy szolgáltatótól, majd saját felhasználóinak mutatja meg azokat.)
Akit érdekel: az NVIDIA szuper-fejlett, úgynevezett Blackwell-generációs chipjének egyórás bérleti díja néhány hónappal ezelőtt 2 dollár 75 cent volt, de cikkünk írásának időpontjában 4 dollár 8 centre ugrott, azaz 48%-kal drágult. Az ajtón azonban kopogtat a Tesla új AI5 chipje amely egyes elemzők szerint jóval olcsóbb és kevésbé energiaigényesebb.
Tesla's AI5 chip will be as performant as Nvidia Blackwell at 1/3 power and <10% cost
— Josh Kale (@JoshKale) November 7, 2025
Within 1 year AI6 doubles this using the same chip fab pic.twitter.com/38tNoCV1sO
Az árrobbanás és a hosszú távú szerződések
A kapacitáshiány klasszikus piaci reakciókat vált ki. Az egyik legfontosabb AI-felhőszolgáltató, a CoreWeave több mint 20 százalékkal emelte árait, és már nem egy-, hanem hároméves szerződéseket kér kisebb ügyfeleitől.
Elemzők szerint a kereslet legalább 2029-ig meghaladhatja a kínálatot, ami tartósan magas árakat vetít előre.
Ez azonban kockázatos stratégia: az AI-cégek között rendkívül éles verseny zajlik a felhasználókért, és az áremelés könnyen az ügyfelek elvesztéséhez vezethet.
#Anthropic just leased xAI’s Colossus supercomputer from SpaceX to supercharge Claude ?
— Nayan (@NayanUnfiltered) May 7, 2026
300MW of AI compute.
H100s, H200s, GB200s.
Rate limits doubled instantly.#AI #Anthropic #ClaudeAI #xAI #SpaceX #ArtificialIntelligence #ElonMusk https://t.co/QCyJAKqvcv pic.twitter.com/8LYf4EOFol
Amikor a megbízhatóság már nem garantált
Az internetes szolgáltatások világában a megbízhatóságot gyakran „kilencesekben” mérik: a 99,99 százalékos rendelkezésre állás iparági alapnak számít. Az AI esetében azonban ez egyelőre távoli cél.
Egyes rendszerek az elmúlt hónapokban 99 százalék alatti rendelkezésre állást produkáltak, ami drámai visszaesés a megszokott szinthez képest.
Egy szakértő ezt így fogalmazta meg:
„Nem ilyen minőséget várunk el attól a rendszertől, amely az alkalmazásaink ‘intelligenciáját’ biztosítja.”
Ez különösen problémás, mert egyre több vállalat építi be az AI-t alapvető működési folyamataiba.
Egyes, a szolgáltatásaikat AI-ra építő cégek, például fejlesztői platformok – bár Anthropic-modelleket preferálnak – kénytelenek voltak másikra átállni, mert az stabilabban működik, aminek nyomán kevesebb panaszra számíthatnak az ügyfeleiktől.
Történelmi párhuzamok: nem új jelenség
A helyzet nem példa nélküli. A technológia története során többször előfordult, hogy az innováció gyorsabban haladt, mint az infrastruktúra kiépítése.
A 19. századi vasútépítési boom, vagy a 2000-es évek eleji internetes robbanás hasonló problémákat hozott: hatalmas kereslet, szűkös kapacitás, és végül egyensúlykeresés az árazáson keresztül.
Az AI esetében azonban a tét még nagyobb, hiszen ez a technológia nem csupán egy iparágat, hanem a teljes gazdaság működését alakíthatja át.
"America doesn't have enough density to support passenger rail!"
— Mark R. Brown, AICP, CNU (@CompletedStreet) May 4, 2026
We had barely half our current population when passenger rail was at its peak. pic.twitter.com/pim8kJtnxi
Felhasználói reakciók: frusztráció és alkalmazkodás
A felhasználók egy része már most alternatív szolgáltatók felé fordul. Az X-en egyre több panaszkodó poszt jelenik meg:
„AI nélkül már nem tudunk dolgozni – de így sem.”
Vagy
„Hát nem ironikus, hogy a jövő technológiája a múlt infrastruktúráján fut?”
A jelenlegi helyzet arra figyelmeztet, hogy az AI fejlődése nem csupán algoritmusok és modellek kérdése. Ugyanolyan fontos az a fizikai infrastruktúra – adatközpontok, chipek, energiaellátás –, ami ezt az egészet működteti.
Rövid távon a cégek valószínűleg tovább korlátozzák a használatot, optimalizálják rendszereiket, és előre sorolják a legjövedelmezőbb ügyfeleket. Hosszabb távon azonban elkerülhetetlen a masszív beruházás az infrastruktúrába.
A kérdés az, hogy ez elég gyorsan megtörténik-e.
Mert ha nem, akkor az AI-forradalom könnyen saját sikerének áldozatává válhat: egy olyan technológiává, amely elméletben mindent tud – gyakorlatban viszont gyakran elérhetetlen – mint például sok brit körzetben az 5G-s mobilhálózat.






.jpg)