Az Anthropic Claude nevű mesterségesintelligencia-alkalmazása technikai problémákkal küzdött hétfőn. Úgy néz ki, a múlt hét végén a vállalat és az amerikai kormány között kibontakozó konfliktus látványosan megnövelte a felhasználói érdeklődést a vállalat AI-modelljei iránt – írja a CNBC híradása nyomán a Portfolio.
A vállalat tavaly júliusban 200 millió dolláros szerződést kötött a Pentagonnal, azt azonban kikötötte, hogy modelljeit nem használhatják teljesen autonóm fegyverekhez vagy amerikaiak tömeges belföldi megfigyeléséhez. A Pentagon ezt visszautasította, és ragaszkodott ahhoz, hogy a hadsereget ne korlátozzák a technológia bármely, jogszerűnek ítélt felhasználásában.
Donald Trump február 27-én elrendelte minden kormányzati szerv számára, hogy haladéktalanul szüntesse meg az Anthropic technológiájának használatát. Nem sokkal ezt követően Pete Hegseth védelmi miniszter az X-en közölte: a Pentagon „nemzetbiztonsági ellátásilánc-kockázatnak” minősíti a vállalatot.
A cég és az amerikai kormány szakítását egy rivális gyorsan ki is használta: az OpenAI még aznap egy új megállapodást kötött a védelmi minisztériummal.
Mindezek után hétfőn a Claude állapotjelző oldala a múlt hónapban kiadott Opus 4.6 modellnél „csökkent teljesítményt” jelzett, a rendszerben pedig „megnövekedett hibaarány” volt tapasztalható. A vállalat délelőtt közölte, hogy azonosították a problémát és dolgoznak a javításán, kicsit később pedig el is hárították a claude.ai, a fejlesztői konzol és a Claude Code szolgáltatások zavarát.








