NVIDIA ha appena confermato la sua architettura GPU Rubin di prossima generazione annunciando le GPU Rubin e Blackwell insieme all’ultima CPU Vera.
L’architettura della GPU NVIDIA Rubin è ora ufficiale: Blackwell e Rubin otterranno varianti “ultra” con memoria e specifiche potenziate
Come annuncio a sorpresa, il CEO di NVIDIA, Jensen Huang, ha rivelato la prossima architettura GPU, nome in codice Rubin, che prende il nome dall’astronoma americana Vera Rubin, che ha dato importanti contributi alla comprensione della materia oscura nell’universo e allo stesso tempo è stata pioniera nel lavoro sulla velocità… Galassia rotazione. Sebbene NVIDIA abbia appena presentato la sua piattaforma Blackwell, sembra che stia accelerando la sua tabella di marcia, introducendo un nuovo prodotto GPU ogni anno, come riportato di recente.
Ma cominciamo prima con Blackwell. Mentre la prima iterazione delle GPU Blackwell (B100/B200) arriverà nei data center entro la fine dell’anno, NVIDIA prevede anche di rilasciare una versione potenziata con kit di memoria 12Hi su 8 posizioni rispetto a 8Hi. kit di memoria. In 8 posizioni sui prodotti attuali. Questo chip dovrebbe essere lanciato nel 2025.
Poi, poco dopo Blackwell, NVIDIA lancerà le sue GPU Rubin di prossima generazione. Le GPU NVIDIA Rubin R100 faranno parte della gamma della serie R e dovrebbero essere prodotte in serie nel quarto trimestre del 2025, mentre si prevede che sistemi come le soluzioni DGX e HGX saranno prodotti in serie nella prima metà del 2026. Secondo per NVIDIA si tratterà di GPU Rubin e la rispettiva piattaforma sarà disponibile entro il 2026, seguita da una versione Ultra nel 2027. NVIDIA conferma inoltre che le GPU Rubin utilizzeranno la memoria HBM4.
Quindi sostanzialmente ci aspettiamo:
- Blackwell (2024) -> Blackwell Ultra (2025)
- Robin (2026) -> Robin Ultra (2027)
Si prevede che le GPU Rubin R100 di NVIDIA utilizzino un design del reticolo 4x (rispetto al 3,3x di Blackwell) e saranno prodotte utilizzando la tecnologia di packaging TSMC CoWoS-L sul nodo di processo N3. TSMC ha recentemente delineato piani per chip con dimensioni del reticolo fino a 5,5x entro il 2026 che avranno un substrato di 100×100 mm e consentiranno fino a 12 siti HBM contro 8 siti HBM sugli attuali pacchetti 80×80 mm.
L’azienda di semiconduttori prevede inoltre di passare a un nuovo design SoIC che avrà una dimensione del reticolo maggiore di 8x in una configurazione del contenitore da 120×120 mm. Questo è ancora in fase di pianificazione, quindi possiamo aspettarci più realisticamente una dimensione del reticolo nell’ordine di 4x per le GPU Rubin.
Altre informazioni menzionate indicano che NVIDIA utilizzerà la DRAM HBM4 di prossima generazione per alimentare le sue GPU R100. L’azienda sta attualmente utilizzando memoria HBM3E più veloce per le sue GPU B100 e si prevede che aggiornerà questi chip con varianti HBM4 quando la soluzione di memoria entrerà in produzione di massa alla fine del 2025. Ciò avverrà più o meno nello stesso periodo in cui si prevede che le GPU R100 entreranno in produzione. entra nella produzione di massa. HBM4. Samsung e SK Hynix hanno rivelato i piani per iniziare lo sviluppo di una soluzione di memoria di prossima generazione nel 2025 con un massimo di 16 stack.
NVIDIA è inoltre pronta ad aggiornare la sua CPU Grace per il Superchip GR200 che presenterà due GPU R100 e una CPU Grace aggiornata basata sul processo a 3 nm di TSMC. Attualmente, la CPU Grace è basata sul nodo di processo a 5 nm di TSMC e dispone di 72 core per un totale di 144 core nella soluzione Grace Superchip. È stato anche confermato che la soluzione CPU ARM di prossima generazione è nota come Vera, il che è un bel tocco.
L’efficienza energetica sarà uno dei maggiori punti di interesse di NVIDIA con le sue GPU Rubin R100 di prossima generazione. L’azienda riconosce le crescenti esigenze energetiche dei suoi chip per data center e apporterà miglioramenti significativi in questo reparto, aumentando al contempo le capacità di intelligenza artificiale dei suoi chip. Le GPU R100 sono ancora molto lontane e non dovremmo aspettarci che vengano rivelate fino al GTC del prossimo anno, ma se queste informazioni sono corrette, NVIDIA ha molti sviluppi entusiasmanti in vista per il settore dell’intelligenza artificiale e dei data center.
Roadmap per NVIDIA Data Center/GPU AI
Il nome simbolico dell’unità di elaborazione grafica | X | Robin (Ultra) | Blackwell (Ultra) | Tramoggia | Ampere | Volta | Pascal |
---|---|---|---|---|---|---|---|
Famiglia GPU | GX200 | GR100 | GB200 | GH200/GH100 | GA100 | GV100 | GP100 |
SKU della GPU | X100 | 100 riyal | B100/B200 | H100/H200 | A100 | V100 | pagina 100 |
memoria | HBM4e? | HBM4 | HBM3e | HBM2e/HBM3/HBM3e | HBM2e | HBM2 | HBM2 |
lancio | 202X | 2026-2027 | 2024-2025 | 2022-2024 | 2020-2022 | 2018 | 2016 |
“Devoto esploratore. Pluripremiato sostenitore del cibo. Esasperante umile fanatico della tv. Impenitente specialista dei social media.”
More Stories
Epidemia di Listeria: i funzionari sanitari ritirano la carne di testa di cinghiale
Elon Musk non risponde alle domande più importanti sui robot Tesla
Con i prezzi medi delle automobili negli Stati Uniti che raggiungono circa 50.000 dollari, General Motors vede i profitti del secondo trimestre aumentare del 15%.