Mindenki jól járt az üzlettel. Ross a Forbes becslése szerint 950 millió dollár (kb. 340 milliárd forint) készpénzt visz haza adózás után, ennek nagyságát a Groq-ban meglévő, hozzávetőleg 9 százalékos részesedése alapján lőtték be. Ezen felül még kapott juttatást Nvidia-részvények formájában is, de ezeket majd csak később hívhatja le. A Groq-tól átvett csapat 3 milliárd dollárnyi Nvidia-részvényt hívhat le, valószínűleg a legnagyobb csomag ebből majd Rossé lesz, de a csapata sem jár rosszul.
A nagy nyertesek között van Chamath Palihapitiya alapja, a Social Capital is, amely Rosséhoz hasonló mértékű részesedéssel rendelkezett a Groq-ban, valamint Sunny Madra, a Groq operatív vezetője és elnöke, akinek Ross kulcsszerepet tulajdonít az üzlet létrejöttében.
És jól jár az amerikai állam is: a konstrukció alapján Washington várhatóan több mint 6 milliárd dollár (kb. 2160 milliárd forint) adóbevételhez jut, miközben az Nvidia mintegy 3 milliárd dollárnyi (kb. 1080 milliárd forint) adókedvezményt is érvényesíthet.
Az új Nvidia Groq 3 LPX rendszer 256 Groq chipet kapcsol össze egy rackben, és jelentősen növeli az inferencia sebességét, miközben kezeli a rendszer egyik fő szűk keresztmetszetét: a memóriát. Az új chipek már „teljes körű gyártásban” vannak, és a szállítások várhatóan már ezen a nyáron megkezdődnek. Az Nvidia nem árulta el, hány Groq chipet tervez gyártani, de a volumen jelentősnek tűnik.
„Annyit mondhatok, hogy Nvidia-léptékű” – mondta Ross. „Ez nem egy pilot projekt.”
Ross elmondása szerint „nagyon sok” ügyféltárgyaláson vett már részt, ugyanakkor konkrét vásárlókat egyelőre nem jelentettek be. „Nem tudom, hogy jelenleg megerősíthetek-e bármilyen megrendelést” – mondta Dion Harris, az Nvidia nagy teljesítményű számítástechnikai és AI-infrastruktúráért felelős vezetője. „Korai még ez, de nagy az érdeklődés.”
Az üzlet megerősíti a piac meggyőződését az AI-inferenciachipek iránt – ahol a Groq–Nvidia együttműködés a versenytársak szerint előnyben lehet a disztribúció terén. Az új termék, az Nvidia Groq 3 LPX léte önmagában jelzi, hogy pusztán a GPU-k nem szolgálják ki jól a gyorsabban növekvő inferenciapiacot” – mondja Sam Fok, az AI-inferenciachipeket fejlesztő FemtoAI vezérigazgatója. Szerinte az olcsóbb és könnyebben hozzáférhető inferencia-megoldások nagyobb keresletet fognak generálni.
„Ezzel a megállapodással validálták azt a piacot, amit mi már egy ideje építünk” – mondta Sid Sheth, a D-Matrix társalapítója és vezérigazgatója. „Az Nvidia következő növekedési szakasza az inferenciából fog jönni.” A Groq versenytársa, a Cerebras az elmúlt két hónapban az OpenAI-jal és az Amazonnal is megállapodásokat jelentett be. A Tenstorrent vezérigazgatója, Jim Keller szerint a Groq
„megnyitotta az utat a heterogén számítástechnika előtt… valaki biztosan kiszámolta, hogy ez így éri meg.”
Úgy tűnik, megdőlni látszik az a tétel, hogy a GPU-k mindent megoldanak, a jővő mesterséges intelligenciája mögött több fajta chip típus dolgozik majd össze.
Mindez különösen azért figyelemre méltó, mert az üzlet éppen ezért majdnem meg sem valósult. Az Nvidia stratégiája ugyanis az, hogy olyan platform legyen, amelyet az ökoszisztéma nem tud megkerülni – ezt a GPU-k területén kiépített dominanciájával meg is alapozta, de úgy tűnik, nem épülhet minden csak erre. Az ökoszisztémába új építőelem került, az inferenciachipek, és az Nvidia meg akarja tartani a domináns pozícióját.
A Groq oldaláról nézve mindezt: ami korábban csak egy ígéretes ötlet volt, az mostanra az Nvidia által támogatott, iparági standard felé tart.
Többször majdnem meghalt a projekt
A Groq 2016-ban indult és az ultragyors inferenciával egy olyan kérdésre adott választ, amelyet a piac nagy része akkor még fel sem tett. „A Groq majdnem többször meghalt” – mondta Ross 2024-ben a Forbesnak. „Talán egy kicsit túl korán kezdtük.”
2023-ban – hét évvel az indulás után – a Groq 3 millió dollár (kb. 1,1 milliárd forint) bevételt ért el, miközben 88 millió dollár (kb. 32 milliárd forint) veszteséget termelt. 2024 közepére, amikor 640 millió dollárt (kb. 230 milliárd forint) vont be 2,8 milliárd dolláros (kb. 1000 milliárd forintos) értékelés mellett, a bevétel még mindig „viszonylag elhanyagolható” volt – mondta Mark Edwards, az Alumni Ventures befektetési igazgatója, amely 2021-ben szállt be a cégbe.
Két forrás szerint az Nvidia-megállapodás idején, vagyis bő négy hónappal ezelőtt a Groq éves bevétele inkább 100 millió dollár (kb. 36 milliárd forint) körül alakulhatott, ami messze elmarad az eredetileg 2025-re várt, mintegy 2 milliárd dolláros (kb. 720 milliárd forintos), majd később 500 millió dollárra (kb. 180 milliárd forintra) módosított előrejelzéstől.
A legjelentősebb ügyletük és fő ügyfelük az – amúgy egyre takarékosabb működésre átálló – szaúd-arábiai állami befektetési alap volt. Ross szerint a Groq „rendben haladt”, bizonyos célokat teljesített, és további nagy ügyfelekkel tárgyalt, ugyanakkor a 2025-ös bevételről nem kívánt nyilatkozni.
Ross korábban, még az Nvidia-üzlet leütése előtt nyilvánosan is hangsúlyozta a szaúdi partnerséget, azt állítva, hogy az jelentős bevételt hoz majd a cégnek. „Nem 1,5 milliárd dollárt vontunk be” – mondta egy évvel ezelőtt a 20VC podcastben. „Ez bevétel. Nagyjából az OpenAI bevételének 30 százaléka.”
Egy volt alkalmazott azonban a Forbesnak azt mondta, hogy ez a szám valójában „az általuk kiépítendő szolgáltatások összesített értékére” utalt. Ebbe valószínűleg beletartozik az adatközpont teljes építési költsége, ahol a Groq chipjeit elhelyezik, maguknak a chipeknek az értéke, valamint az általuk termelt számítási kapacitás értéke is – egy nem meghatározott időtávon.
A Groq szaúdi megállapodása – konkrétan az állami olajvállalat technológiai leánycégével, az Aramco Digital-lal – három volt alkalmazott szerint bevételmegosztásos konstrukcióban valósult meg. A modell lényege: a Groq viszonylag alacsony áron adja el az AI-chipjeit az Aramcónak; az Aramco finanszírozza az azokat befogadó adatközpontot; a felek pedig megosztják a chipek által generált számítási kapacitásból származó bevételeket.
A Groq-nak volt még egy nagy, 300 millió dolláros üzlete, ami megmutatja, hogy mit is jelentenek az AI piacán a nagy számok. Az ausztrál Equinix adatközpontokat ad bérbe, a Groq arra szerződött velük, hogy náluk helyezze el az LPU-it, majd az így biztosított kapacitást a saját felhőügyfeleinek értékesítse.
„Sokkal inkább olyan érzés volt, hogy igen, volt pénzmozgás, de jelentős részben termékek és szolgáltatások cseréje is zajlott”
– mondta egy forrás a Forbesnak.
Nem világos, hogy ezek a konstrukciók hogyan folytatódtak az Nvidia égisze alatt, illetve mennyiben voltak részei az Nvidiával folytatott tárgyalásoknak. Ross szerint legfeljebb annyiban játszottak szerepet, hogy a Groq megmaradt, független üzletága továbbra is kiszolgálja szaúdi ügyfeleit.
A most hétfőn bemutatott integrált projekt a Groq harmadik generációs chipjére épül. A második generáció – amelynek bevezetése csúszott – Ross szerint még nem állt teljes készen, így a Groq végül egy új verzióra váltott, hogy ne veszítsen időt.
A nehézségek ellenére Ross végig magabiztos maradt, és nagyban gondolkodott.
„Úgy voltam vele, hogy én a Groq-nál fogok meghalni. Mindig azt mondtam, hogy a világ inferenciájának felét mi akarjuk kiszolgálni.”
Bár egy volt alkalmazott szerint a Groq célja kezdettől az volt, hogy együtt dolgozzon az Nvidiával, Ross eleinte nem volt biztos benne, hogy a Groq chipjei és az Nvidia GPU-i jól integrálhatók. „Majdnem nem csináltuk meg.” Elmondása szerint Sunny Madra – aki ma már az Nvidia alelnöke – győzte meg, hogy hívja fel Huangot. Végül tökéletes párosításnak bizonyult a két cég összefogása, üzleti és kulturális értelemben egyaránt.
Most a tét már nem az üzlet logikája, hanem a termék valós teljesítménye. Még túl korai megmondani, hogyan működik majd az Nvidia–Groq rendszer – LPX néven –, mivel egyelőre opcionális integrációként jelenik meg az Nvidia Vera Rubin platformján, és még nem használják nagy léptékben. A hét elején Huang azt mondta, hogy az integráció gigawattként akár évi 300 milliárd dollár (kb. 108 000 milliárd forint) bevételi potenciált is megnyithat, és arra számít, hogy a GPU-feladatok mintegy 25 százaléka kapcsolódik majd a Groq chipekhez.
„Olyanok voltunk, mint a gyerekek egy édességboltban” – mondta Ross az Nvidiához való csatlakozásról. „Hirtelen mindenhez hozzáfértünk.”
Az AI-ipar következő szakasza most kezdődik. És ha az Nvidia stratégiája beválik, a jövő adatközpontjaiban nem egyetlen chip dominál majd – hanem egy jól szervezett, heterogén rendszer.
Ahol a GPU csak az egyik szereplő.