Aprile 20, 2024

TeleAlessandria

Informazioni sull'Italia. Seleziona gli argomenti di cui vuoi saperne di più

24 core CPU Zen 4, 146 miliardi di transistor, HBM3 da 128 GB, fino a 8 volte più veloce di MI250X

24 core CPU Zen 4, 146 miliardi di transistor, HBM3 da 128 GB, fino a 8 volte più veloce di MI250X

AMD ha appena confermato le sue specifiche MI300 Istinto Acceleratore CDNA 3 che utilizza 4 core CPU Zen in un pacchetto di chipset 3D a 5 nm.

Specifiche AMD Instinct MI300 ‘CDNA 3’: chiplet da 5 nm, 146 miliardi di transistor, CPU Zen 4 a 24 core, HBM3 da 128 GB

Le ultime specifiche svelate dell’acceleratore AMD Instinct MI300 confermano che questa APU sarà una bestia nel design del chip. La CPU includerà diversi pacchetti di chip 3D da 5 nm, tutti combinati per ospitare 146 miliardi di transistor. Questi transistor includono molti indirizzi IP di base, interfacce di memoria, interconnessioni e molto altro. L’architettura CDNA 3 è il DNA centrale dell’Instinct MI300, ma l’APU viene fornito anche con un totale di 24 data center Zen 4 e 128 GB di memoria HBM3 di nuova generazione in esecuzione in una configurazione bus a 8192 bit che è davvero piuttosto esplosiva.

Durante l’AMD Financial Day 2022, la società ha confermato che l’MI300 sarà un acceleratore Instinct multi-chip e multi-IP che non solo presenta core GPU CDNA 3 di nuova generazione, ma è anche dotato di core CPU Zen 4 di nuova generazione.

Per abilitare più di 2 exaflop di potenza di elaborazione a doppia precisione, il Dipartimento dell’Energia degli Stati Uniti, il Lawrence Livermore National Laboratory e HPE hanno collaborato con AMD per progettare El Capitan, che dovrebbe essere il supercomputer più veloce del mondo con consegna prevista all’inizio del 2023 El Capitan trarrà vantaggio dai prodotti El Capitan Next Generation include miglioramenti dal design del processore personalizzato di Frontier.

  • Con il nome in codice “Genova”, la prossima generazione di processori AMD EPYC presenterà un core del processore “Zen 4” per supportare la memoria di nuova generazione e i sottosistemi I/O per i carichi di lavoro AI e HPC.
  • Le GPU basate su AMD Instinct di nuova generazione ottimizzate per l’elaborazione per i carichi di lavoro HPC e AI utilizzeranno la memoria a larghezza di banda elevata di nuova generazione per prestazioni ottimali di deep learning.

Questo progetto eccellerà nell’analisi dei dati di intelligenza artificiale e apprendimento automatico per creare modelli più veloci, più accurati e in grado di misurare l’incertezza nelle loro previsioni.

tramite AMD

Nel suo ultimo confronto delle prestazioni, AMD afferma che l’Instinct Mi300 offre un aumento di 8 volte delle prestazioni AI (TFLOP) e una prestazione AI di 5 volte per watt (TFLOP/watt) rispetto all’Instinct MI250X.

READ  Op Amp Quiz: Intelligent Continuity Tester ti dice dov'è il problema

AMD utilizzerà entrambi i nodi di processo a 5 nm e 6 nm per le CPU Instinct MI300 “CDNA 3”. Il chip sarà dotato della prossima generazione di Infinity Cache e presenterà l’architettura Infinity di quarta generazione che consente il supporto per l’ecosistema CXL 3.0. L’acceleratore Instinct MI300 farà oscillare l’architettura di memoria unificata dell’APU e i nuovi formati matematici, consentendo prestazioni 5 volte superiori per watt lift rispetto a CDNA 2, il che è enorme. AMD riduce anche le prestazioni AI di oltre 8 volte rispetto agli acceleratori Instinct MI250X basati su CDNA 2. L’UMAA della GPU CDNA 3 collegherà la CPU e la GPU a un pacchetto di memoria HBM unificato, eliminando la copia ridondante della memoria e fornendo un basso costo di acquisizione.

Gli acceleratori APU AMD Instinct MI300 dovrebbero essere disponibili entro la fine del 2023, che è all’incirca nel periodo della pubblicazione del summenzionato supercomputer El Capitan.

Condividi questa storia

Facebook

Cinguettio