JEDEC certifica GDDR5X: AMD e Nvidia lo utilizzeranno per la grafica di nuova generazione, dopotutto?

Lo scorso autunno, Micron ha annunciato che avrebbe introdotto sul mercato un nuovo tipo di GDDR5, GDDR5X. A quel tempo, non era chiaro se l'annuncio sarebbe stato molto elevato, dal momento che Micron non si aspettava la disponibilità fino alla fine del 2016 e sia AMD che Nvidia avranno probabilmente aggiornato i loro prodotti desktop e mobili per allora. Ora, il consorzio di standard di memoria JEDEC ha ufficialmente riconosciuto e pubblicato GDDR5X come un nuovo standard di memoria, il che potrebbe renderlo molto più attraente sia per AMD che per Nvidia.

GDDR5X contro GDDR5

diversamente da memoria ad alta larghezza di banda (HBM, HBM2), GDDR5X è un'estensione dello standard GDDR5 che le schede video utilizzano da quasi sette anni. Come HBM, dovrebbe migliorare notevolmente la larghezza di banda della memoria.

GDDR5X esegue ciò in due modi separati. Innanzitutto, passa da un bus DDR a un bus QDR. Il diagramma seguente mostra le differenze tra un bus SDR (velocità dati singola), DDR (velocità dati doppia) e QDR (velocità dati quadrupla).



SDR contro DDR contro QDR

Segnalazione di memoria. Immagine di MonitorInsider

Un bus SDR trasferisce i dati solo sul fronte di salita del segnale di clock, poiché è passato da uno 0 a uno 1. Un bus DDR trasferisce i dati sia quando il clock sale sia quando scende di nuovo, il che significa che il sistema può effettivamente trasmettere i dati due volte più velocemente alla stessa frequenza di clock. Un bus QDR trasferisce fino a quattro parole di dati per ciclo di clock - ancora una volta, raddoppiando efficacemente la larghezza di banda (rispetto a DDR) senza aumentare la velocità di clock.

L'altra modifica alla GDDR5X è che il sistema ora preleva il doppio dei dati (16n, da 8n). Questa modifica è legata alla segnalazione QDR: con la velocità di segnalazione più alta, ha senso precaricare più informazioni alla volta.

MonitorInsider ha un'estensione ottima discussione di GDDR5X, dove passano attraverso il nuovo standard e come si differenzia da GDDR5. Un punto che sottolineano è che l'utilizzo di GDDR5X potrebbe non corrispondere bene alle caratteristiche delle GPU Nvidia. Un prefetch 16n significa che ogni prefetch contiene 64 byte di dati. Le GPU Nvidia utilizzano transazioni a 32 byte quando accedono alla cache L2, il che significa che la DRAM sta recuperando il doppio delle informazioni rispetto alla dimensione della linea della cache L2. GDDR5X introduce una funzionalità, gli accessi alla memoria pseudo-indipendenti, che dovrebbero aiutare a risolvere questa inefficienza.

GDDR5X non affronta il problema principale di GDDR5

Ora che JEDEC ha ufficialmente ratificato lo standard GDDR5X, penso che sia molto più probabile che AMD e Nvidia lo adotteranno. Data l'ulteriore complessità di HBM / HBM2 e la difficoltà intrinseca di costruire pile di chip collegati da minuscoli fili rispetto alla ben nota tecnologia planare, alcuni hanno sostenuto che GDDR5X sia effettivamente l'opzione migliore a lungo termine.

Per essere onesti, abbiamo visto Esattamente questo argomento viene ripetuto più volte prima. RDRAM, Larrabee e l'architettura Itanium a 64 bit di Intel erano tutte deviazioni radicali dallo status quo che erano annunciate come l'inevitabile e costosa tecnologia del futuro. In ogni caso, queste nuove tecnologie all'avanguardia sono state rovesciate dalla continua evoluzione della memoria DDR, dalla rasterizzazione e dallo standard x86-64 di AMD. Perché la HBM dovrebbe essere diversa?

La risposta è questa: HBM e HBM2 no appena migliorare la larghezza di banda della memoria. Entrambi gli standard riducono il consumo energetico assoluto della VRAM e migliorano notevolmente le prestazioni per watt. Inoltre, HBM2 offre densità di VRAM che GDDR5X non può eguagliare. Samsung ha attualmente chip da 4 Gb in produzione (16 GB per GPU) e prevede di produrre schede da 8 Gb che consentirebbero 32 GB di RAM per GPU in soli quattro stack di memoria. L'attuale GDDR5 di Micron arriva a 1 GB per chip. Anche se raddoppiamo questo valore a 2 GB per i progetti futuri, ci vorranno ancora 16 chip, ciascuno con il proprio percorso di traccia e requisiti di superficie. GDDR5X imposta una tensione di segnalazione inferiore di 1,35 V, ma non è un miglioramento abbastanza grande da compensare l'aumento del numero di chip e il consumo energetico complessivo.

HBM-1

Questa diapositiva mostra il problema di impilare le configurazioni RAM 2D a tempo indeterminato. Una GPU da 32 GB costruita con GDDR5X utilizzando la tecnologia attuale richiederebbe il doppio dei chip come mostrato sopra.

La complessità della scheda, l'aumento del calore e i requisiti di alimentazione aggiuntivi rispetto all'HBM2 alla fine superano qualsiasi aumento dei costi associati allo sviluppo della nuova tecnologia. La diapositiva sopra proviene da una presentazione AMD, ma si applica anche a Nvidia.

Detto questo, penso che vedremo le schede GDDR5X di uno o entrambi i fornitori, almeno a breve termine. Consentirà ad AMD e Nvidia di offrire miglioramenti sostanziali della larghezza di banda insieme a GPU che non hanno enormi buffer VRAM in primo luogo. Non è ancora chiaro dove sarà la divisione HBM2 / GDDR5X / GDDR5, ma nessuna delle due società cederà all'altra il potente vantaggio che GDDR5X potrebbe fornire. Adottarlo nelle schede di fascia media a 14/16 nm consentirà ai Team Rosso e Verde di pubblicizzare enormi miglioramenti della larghezza di banda su tutta la linea, anche su schede che non richiedono prezzi stratosferici.

Copyright © Tutti I Diritti Riservati | 2007es.com