AI-världen har just fått sitt kraftfullaste verktyg någonsin. CoreWeave, som på bara några år gått från kryptobrytning till att bli en av världens ledande molnleverantörer för AI, har nu som första företag globalt tagit i bruk Nvidias mest avancerade superdatorer – baserade på den nya Grace Blackwell Ultra-arkitekturen.
Samarbetet mellan Nvidia, Dell och CoreWeave representerar mer än bara en teknisk milstolpe. Det visar hur fullstack-lösningar och rekordprestanda tillsammans accelererar utvecklingen av avancerade AI-tillämpningar på ett sätt vi aldrig sett förut.
Otroliga prestandasiffror med Dell GB300 NVL72-plattformen
Dell GB300 NVL72-plattformen, som nu rullats ut i CoreWeaves infrastruktur, levererar helt enkelt otroliga siffror. Vi snackar om upp till 1,1 ExaFLOPS för AI-inferens per rack – vilket gör dessa system till några av de kraftfullaste i världen. För att sätta det i perspektiv är det omkring 50 procent högre prestanda än tidigare GB200 NVL-modeller.
- 72 Nvidia Blackwell Ultra-GPU:er per rack
- 36 Grace-CPU:er
- 36 BlueField DPU:er
- 20 TB HBM3E-minne
- Totalt 40 TB RAM via Nvidia Quantum-X800 InfiniBand och ConnectX-8 SuperNICs
- Nätverkshastigheter upp till 14,4 GB/s – dubbelt så snabbt som förra generationen
Denna kraft kommer dock med utmaningar. Energiförbrukningen är så hög att avancerad flytande kylning krävs för att hantera upp till 1 400 watt per GPU. Det här är cutting-edge teknik som kräver cutting-edge lösningar.
Nvidias Banbrytande Blackwell Ultra-chip
Nvidia Blackwell Ultra-chipet, som visades upp först vid GTC-konferensen i mars 2025, består av två stora GPU-kretsar och levererar 15 petaflops i FP4-prestanda per chip samt 288 GB HBM3E-minne. Dell och CoreWeave uppger att racksystemet ger 1,5 gånger högre AI-prestanda än föregångaren GB200 NVL72.
Nvidia Blackwell Ultra-chip – Huvudsakliga specifikationer
- Två stora GPU-kretsar
- 15 petaflops FP4-prestanda per chip
- 288 GB HBM3E-minne
- Ger 1,5× högre AI-prestanda än GB200 NVL72
CoreWeaves globala expansion och rekord
CoreWeaves globala expansion är inget mindre än imponerande. Med 31 datacenter globalt och fler på väg har företaget fördubblat sin kapacitet att serva avancerade AI-workloads från företag och AI-labb världen över. Efter noteringen på Nasdaq i mars 2025 har CoreWeave cementerat sin position som nyckelaktör inom AI-infrastruktur.
I juni 2025 satte CoreWeave, tillsammans med Nvidia och IBM, MLPerf Training-rekord genom att träna en Llama 3.1-modell med nära 2 500 Grace Blackwell Superchips på bara 27,3 minuter. Det understryker verkligen den enorma kapaciteten hos dessa system.
Vad betyder detta för framtiden?
CoreWeaves snabba expansion och utplacering av Blackwell Ultra-baserade system positionerar dem som världsledande inom AI-infrastruktur. Deras kunder – från AI-labb till storföretag – får nu tillgång till den mest avancerade hårdvaran för både utveckling och drift av nästa generations AI-lösningar.
Dell ser denna satsning som ett avgörande steg mot fullstack-enterprise-AI, där hårdvara och mjukvara samverkar för att möjliggöra exponentiellt snabbare AI-utveckling och realtidsinferens. Det här är inte bara en teknisk uppgradering – det är grunden för en ny era inom enterprise-AI.
”Den tekniska milstolpe som CoreWeave, Dell och Nvidia tillsammans skapat öppnar dörrar för AI-tillämpningar vi knappt kunnat drömma om tidigare.”
– Artikelinsamling
För företag och forskningslaboratorier betyder detta möjligheten till snabba genombrott som tidigare varit omöjliga. Det är början på en ny era för AI-infrastruktur och innovation.