Nyitókép: Pixabay

AI-aranyláz: nem bírja a rendszer a mesterséges intelligencia terjedését

Infostart / InfoRádió - Szvetnik Endre (London)
2026. május 10. 17:56
Hiába az AI látványos, szinte minden iparágban követhető fejlődése, a forradalom felfedte Achilles-inát: a jelenlegi számítási kapacitás egyszerűen nem tud lépést tartani az igénnyel. A helyzet a klasszikus technológiai szűk keresztmetszetet idézi, amikor egy régebbi, de fontos technológia fékezi az új térnyerését.

„Nem olaj, hanem token hiány van” – mondják az ágazattal foglalkozó kommentátorok, amikor megpróbálják elmagyarázni, mi fékezi az AI menetelését. A mesterséges intelligencia működésének egyik kulcsfogalma ugyanis a „token”: ez az a mértékegység, amely azt jelzi, mennyi számítási erőforrást használ fel egy adott feladat.

Ahogy az AI-rendszerek egyre összetettebb feladatokat látnak el – például autonóm módon írnak programokat vagy kezelnek komplett folyamatokat –, úgy nő robbanásszerűen a tokenigényük is.

Egy amerikai technológiai befektető szerint ma már nem az energia vagy az adat a legégetőbb szűk keresztmetszet, hanem maga a számítási kapacitás.

Az AI ugyanis túllépett azon a szinten, hogy egyszerű kérdésekre válaszoló chatbot legyen: komplex, egymásra épülő feladatokkal zsonglőrködik, gyakran emberi beavatkozás nélkül.

Ez a változás különösen az úgynevezett „agentikus”, azaz „ügynökökre” épülő AI-rendszerek terjedésével gyorsult fel. Ezek az eszközök nem csupán reagálnak, hanem önállóan cselekszenek – például időpontokat szerveznek, üzleti döntéseket készítenek elő, vagy akár teljes szoftvermodulokat fejlesztenek.

Megugrott igény, akadozó rendszerek

A kapacitásigény viszont olyan tempóban nő, amit az infrastruktúra egyszerűen nem képes követni. Ennek a következményei már most is érzékelhetők: szolgáltatáskiesések, lassulások, és olyan döntések, amelyek korábban elképzelhetetlenek lettek volna.

Az Anthropic például – a Claude nevű chatbot gazdája – az elmúlt hónapokban rendszeres leállásokkal küzdött. A cég kénytelen volt korlátozni a felhasználók által igénybe vehető kapacitást a csúcsidőszakokban, ami komoly felháborodást váltott ki az ügyfelek körében.

Egy vállalati felhasználó például így fogalmazott az X-en:

„Hetek óta nem értem el a limitet, most meg 45 perc alatt kifutottam belőle.”

Egy másik bejegyzésből pedig kiköszönt a maró gúny:

„A Claude jelenleg a legjobb fejlesztői AI – amikor épp működik.”

A problémák különösen azért aggasztók, mert az AI-szolgáltatások egyre inkább a létfontosságú infrastruktúra részévé válnak. Ha megbízhatatlanok, az közvetlen hatással van cégek működésére és termelékenységére.

A Krumpli és a Nagy Grafikus Processzor Hajsza

A háttérben egy egyszerű, de nehezen kezelhető probléma áll: nincs elég hardver. Az AI-modellek tanításához és futtatásához szükséges grafikus processzorok (GPU-k) iránti kereslet az egekbe szökött.

A piacot domináló Nvidia legújabb chipjeinek bérleti díja például néhány hónap alatt közel 50 százalékkal emelkedett. Egy csúcskategóriás GPU egyórás használata ma már több mint 4 dollárba kerül, és az árak tovább nőhetnek.

A ChatGPT-ről ismert OpenAI pedig gyorsan nyugdíjazta video-generáló alkalmazását, a Sorát, azért, hogy az intenzív kódíráshoz és üzleti alkalmazásokhoz fontos számítógépes kapacitást szabadítson fel, továbbá, hogy több forrást tudjon átirányítani új modelljére, a Spud-ra (ami egyébként krumplit jelent) – írta a Wall Street Journal.

A helyzetet súlyosbítja, hogy az új adatközpontok építése évekbe telik, és az energiaellátás is korlátozott. Egy iparági vezető szerint a 2026-ig elérhető villamosenergia-kapacitás nagy részét már lekötötték.

Ez azt jelenti, hogy még ha a cégek azonnal beruháznának is, az új kapacitások csak évek múlva állnának rendelkezésre.

Drasztikus döntések a kulisszák mögött

A hiány miatt a technológiai cégek egyre keményebb döntésekre kényszerülnek. Az OpenAI pénzügyi vezetője nyíltan beszélt arról, hogy folyamatosan keresik „az adott pillanatban elérhető” számítási kapacitásokat (úgynevezett spot-árakon, hasonlóan ahhoz, ahogy a földgázt nem tároló ügyfelek is spot-árakon vásárolnak), és sok esetben egyszerűen le kell mondaniuk bizonyos projektekről.

Közben az vállalat API-szolgáltatásának használata elképesztő tempóban nő: néhány hónap alatt több mint kétszeresére emelkedett az igénybevétel. (Az API egyfajta „pincér”, amely kiszolgálja a „vendéget”, aki nem mehet be a konyhába, de rendelést leadhat, ami után azt kihozzák neki. Példa: egy app, amely időjárási adatokat jelenít meg, valójában egy API útján kéri ki azokat egy szolgáltatótól, majd saját felhasználóinak mutatja meg azokat.)

Akit érdekel: az NVIDIA szuper-fejlett, úgynevezett Blackwell-generációs chipjének egyórás bérleti díja néhány hónappal ezelőtt 2 dollár 75 cent volt, de cikkünk írásának időpontjában 4 dollár 8 centre ugrott, azaz 48%-kal drágult. Az ajtón azonban kopogtat a Tesla új AI5 chipje amely egyes elemzők szerint jóval olcsóbb és kevésbé energiaigényesebb.

Az árrobbanás és a hosszú távú szerződések

A kapacitáshiány klasszikus piaci reakciókat vált ki. Az egyik legfontosabb AI-felhőszolgáltató, a CoreWeave több mint 20 százalékkal emelte árait, és már nem egy-, hanem hároméves szerződéseket kér kisebb ügyfeleitől.

Elemzők szerint a kereslet legalább 2029-ig meghaladhatja a kínálatot, ami tartósan magas árakat vetít előre.

Ez azonban kockázatos stratégia: az AI-cégek között rendkívül éles verseny zajlik a felhasználókért, és az áremelés könnyen az ügyfelek elvesztéséhez vezethet.

Amikor a megbízhatóság már nem garantált

Az internetes szolgáltatások világában a megbízhatóságot gyakran „kilencesekben” mérik: a 99,99 százalékos rendelkezésre állás iparági alapnak számít. Az AI esetében azonban ez egyelőre távoli cél.

Egyes rendszerek az elmúlt hónapokban 99 százalék alatti rendelkezésre állást produkáltak, ami drámai visszaesés a megszokott szinthez képest.

Egy szakértő ezt így fogalmazta meg:

„Nem ilyen minőséget várunk el attól a rendszertől, amely az alkalmazásaink ‘intelligenciáját’ biztosítja.”

Ez különösen problémás, mert egyre több vállalat építi be az AI-t alapvető működési folyamataiba.

Egyes, a szolgáltatásaikat AI-ra építő cégek, például fejlesztői platformok – bár Anthropic-modelleket preferálnak – kénytelenek voltak másikra átállni, mert az stabilabban működik, aminek nyomán kevesebb panaszra számíthatnak az ügyfeleiktől.

Történelmi párhuzamok: nem új jelenség

A helyzet nem példa nélküli. A technológia története során többször előfordult, hogy az innováció gyorsabban haladt, mint az infrastruktúra kiépítése.

A 19. századi vasútépítési boom, vagy a 2000-es évek eleji internetes robbanás hasonló problémákat hozott: hatalmas kereslet, szűkös kapacitás, és végül egyensúlykeresés az árazáson keresztül.

Az AI esetében azonban a tét még nagyobb, hiszen ez a technológia nem csupán egy iparágat, hanem a teljes gazdaság működését alakíthatja át.

Felhasználói reakciók: frusztráció és alkalmazkodás

A felhasználók egy része már most alternatív szolgáltatók felé fordul. Az X-en egyre több panaszkodó poszt jelenik meg:

„AI nélkül már nem tudunk dolgozni – de így sem.”

Vagy

„Hát nem ironikus, hogy a jövő technológiája a múlt infrastruktúráján fut?”

A jelenlegi helyzet arra figyelmeztet, hogy az AI fejlődése nem csupán algoritmusok és modellek kérdése. Ugyanolyan fontos az a fizikai infrastruktúra – adatközpontok, chipek, energiaellátás –, ami ezt az egészet működteti.

Rövid távon a cégek valószínűleg tovább korlátozzák a használatot, optimalizálják rendszereiket, és előre sorolják a legjövedelmezőbb ügyfeleket. Hosszabb távon azonban elkerülhetetlen a masszív beruházás az infrastruktúrába.

A kérdés az, hogy ez elég gyorsan megtörténik-e.

Mert ha nem, akkor az AI-forradalom könnyen saját sikerének áldozatává válhat: egy olyan technológiává, amely elméletben mindent tud – gyakorlatban viszont gyakran elérhetetlen – mint például sok brit körzetben az 5G-s mobilhálózat.