UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Comunque qui c'è un'analisi seria del connettore (o meglio dell'adattatore fornito da nVidia)
https://www.igorslab.de/en/adapter-...hot-12vhpwr-adapter-with-built-in-breakpoint/

Da quanto dice il problema potrebbe essere principalmente legato a come è costruito l'adattatore 🤦‍♂️
Mi preoccupa il fatto che questa cosa non sia venuta fuori nelle recensioni. Ma quanto le testano le gpu prima di scrivere una recensione ?
A questo punto spero per i possessori di questa gpu che i problemi siano finiti li.
Uno spende 2000 euro e poi deve comprarsi un connettore a parte per non bruciare tutto 🤣
Speriamo evitino lo stesso problema con la rtx 4080.

Comunque sia il lancio disastroso delle rtx 3000 ( non so se ricordate i crash per i condensatori, poi risolto ) e quello delle rtx 4000 mi hanno fatto capire che se un giorno volessi fare un upgrade con un ipotetica serie rtx 5080 / rtx 6080, dovrò attendere qualche mese dopo il lancio per non prendere fregature, anche perché non stiamo parlando più di 599$/699$ per una classe XX80.
--- i due messaggi sono stati uniti ---
Per la serie 5000 non so, ma per la 6000 son quasi certo che servirà una schuko 😅
Non è detto, spesso in passato si è visto un incremento prestazionale da classe xx80 a xx80 nuova anche del 80% e consumi inferiori. Un esempio è la gtx 1080ti una gpu potentissima con consumi relativamente bassi, andava un 67% in più rispetto alla gtx 980ti avendo lo stesso tdp, come anche la rtx 2080ti che va un 213% più veloce ( più del doppio ) rispetto ad una gtx 980ti e consumi uguali cioè 250watt di tdp. Quindi se le architetture sono buone, si riesce ad ottenere consumi bassi nonostante i gap prestazionali impressionanti.
Diciamo che il marketing ci sta facendo vedere questa classe 90 come una top di gamma per il gaming, ma mi dispiace non è una gpu da gaming. Quindi al massimo io mi limiterei a vedere i consumi dellla classe xx80 /xx80ti.
450watt + 24GB di vram + 1599$ msrp ?? Se uno se la compra per giocare ha sbagliato tutto.
 
Ultima modifica:
Tra l'altro questo video spiega anche perché il problema salta fuori ora e non con la 3090Ti:

In pratica hanno cambiato adattatore e mentre quello delle 3000 era connesso "pin to pin" ora hanno fatto questa oscenità a quattro fili...

Però c'è da dire che a questo punto non dovrebbe essere il connettore il problema, ma la qualità (sottoterra) dell'adattatore (che in schede di questo livello fa rabbrividire 🤦‍♂️)
 
Per la serie 5000 non so, ma per la 6000 son quasi certo che servirà una schuko 😅

La cosa divertente è che il connettore a 12 pin porta più corrente di una Schuko 🤣
Ovviamente la Schuko è usata per ben altri livelli di tensione, quindi l'isolamento segue criteri totalmente diversi, ma usare la Schuko per alimentare una 4090 in linea del tutto teorica poterebbe a sovraccaricarla a oltre il doppio del consentito.

Non è detto, spesso in passato si è visto un incremento prestazionale da classe xx80 a xx80 nuova anche del 80% e consumi inferiori. Un esempio è la gtx 1080ti una gpu potentissima con consumi relativamente bassi, andava un 67% in più rispetto alla gtx 980ti avendo lo stesso tdp, come anche la rtx 2080ti che va un 213% più veloce ( più del doppio ) rispetto ad una gtx 980ti e consumi uguali cioè 250watt di tdp. Quindi se le architetture sono buone, si riesce ad ottenere consumi bassi nonostante i gap prestazionali impressionanti.
Diciamo che il marketing ci sta facendo vedere questa classe 90 come una top di gamma per il gaming, ma mi dispiace non è una gpu da gaming. Quindi al massimo io mi limiterei a vedere i consumi dellla classe xx80 /xx80ti.
450watt + 24GB di vram + 1599$ msrp ?? Se uno se la compra per giocare ha sbagliato tutto.

Secondo me il tempo in cui si poteva quasi raddoppiare la prestazione della top di gamma senza aumentare i consumi sono finiti.
Tra l'altro, il passaggio 980ti - 1080ti è stato forse tra i migliori della storia, ma fu dovuto principlamente al processo produttivo, perchè la differenza tra 28nm e 16nm era enorme (i 20nm li saltarano perchè non sono mai stati adattati all'HPC).
Ma ormai è più difficile spremere performance dai processi produttivi perchè siamo più vicini ai limiti fisici, anche se in effetti il passaggio 8nm Samsung - 5nm TSMC che ha appena compiuto Nvidia è stato un bel salto. Però finchè i produttori (tutti, Nvidia, AMD, Intel) si ostineranno a vendere i loro prodotti tirati per il collo per recuperare l'ultimo 1% di prestazione, la corsa ai watt non finirà mai.
Più che avanzamento tecnologico, è questione di come viene impiegata la tecnologia, perchè tutti gli ultimi prodotti potrebbero essere resi molto più efficienti calmierando frequenze e tensioni.

Tra l'altro questo video spiega anche perché il problema salta fuori ora e non con la 3090Ti:

In pratica hanno cambiato adattatore e mentre quello delle 3000 era connesso "pin to pin" ora hanno fatto questa oscenità a quattro fili...

Però c'è da dire che a questo punto non dovrebbe essere il connettore il problema, ma la qualità (sottoterra) dell'adattatore (che in schede di questo livello fa rabbrividire 🤦‍♂️)

Sì adesso che ho visto bene come è fatto (grazie Igor) sono d'accordo che il problema principale è l'adattatore.
Il 12 pin comunque rimane un connettore più delicato degli 8 pin e le preoccupazioni relative al posizionamento sollevate dai produttori di cavi ne sono la prova. Però l'adattatore Nvidia è peggio.
In realtà l'idea di impiegare 4 cavi grossi e saldarli a un collettore di corrente per mettere tutto in parallelo e ridistribuire il carico non è sbagliata: il problema è la realizzazione. Il "busbar" è troppo sottile e delicato, le saldature fatte così si possono facilmente rompere piegando i cavi perchè sostanzialmente sono esposte a qualsiasi forza gli si imprima (e i cavi AWG14 sono belli rigidi, ovviamente).
Serviva più spazio per fare un lavoro fatto bene, ma credo che l'alloggiamento del connettore sia standard. A questo punto forse conveniva collegare pin su pin, anzi, 2 pin degli 8 pin a 1 pin del 12 pin, si rinunciava alla possibilità di usare l'adattatore con soli 3 connettori e buonanotte.
Tra l'altro, il collegare 2 pin dei molex 8 pin a 1 pin del 12 pin implica mettere in parallelo i diversi 8 pin perchè alcuni pin vanno per forza agganciati a 2 8 pin diversi (ogni 8 pin ha 3 linee 12v): non pensavo che le specifiche ATX lo consentissero (perchè tra un connettore e l'altro possono esserci piccole differenze di tensione), ma se nel 12 pin è tutto in parallelo (la rail 12v nella scheda è unica da quanto ho letto) va fatto per forza e a questo punto non credo sia un problema farlo.
 
@pribolo ciò che dici non è sbagliato ma ti ricordo anche che non ce solo il processo produttivo a portare un incremento di prestazioni ma anche l'architettura.
Giusto per farmi capire Gtx 780ti 28nm con un tdp di 250watt mentre la gtx 980ti sempre a 28nm 28% più performante con un tdp di 250watt. Ma non è tutto, Maxwell introdusse tantissime migliorie che facevano si che quel 28% si trasformasse anche in un 60% nei giochi moderni che utilizzavano directx 12 ( non ultimate ) e vulkan. Maxwell aveva la compressione della memoria ( delta color compression ), i cuda più efficienti e numerosi, dsr, gestione dell'aliasing migliorata, latenza ridotta, buone performance con VR ecc

Se Nvidia si concentra su come migliorare l'architettura ( cosa non avvenuta con Ada visto che è quasi identica ad Ampere ), si potrebbe dimezzare il lavoro ottenendo lo stesso risultato, come accade con un algoritmo prima scritto da un principiante e poi il medesimo algoritmo scritto da un esperto, vedrai molte meno linee di codice e un ottimizzazione del codice che porta allo stesso risultato ( se non migliore ) con meno lavoro.
Poi magari mi sbaglio, ma penso che dovrebbero puntare più su rivoluzionare l'elaborazione della grafica.
 
@pribolo ciò che dici non è sbagliato ma ti ricordo anche che non ce solo il processo produttivo a portare un incremento di prestazioni ma anche l'architettura.
Giusto per farmi capire Gtx 780ti 28nm con un tdp di 250watt mentre la gtx 980ti sempre a 28nm 28% più performante con un tdp di 250watt. Ma non è tutto, Maxwell introdusse tantissime migliorie che facevano si che quel 28% si trasformasse anche in un 60% nei giochi moderni che utilizzavano directx 12 ( non ultimate ) e vulkan. Maxwell aveva la compressione della memoria ( delta color compression ), i cuda più efficienti e numerosi, dsr, gestione dell'aliasing migliorata, latenza ridotta, buone performance con VR ecc

Se Nvidia si concentra su come migliorare l'architettura ( cosa non avvenuta con Ada visto che è quasi identica ad Ampere ), si potrebbe dimezzare il lavoro ottenendo lo stesso risultato, come accade con un algoritmo prima scritto da un principiante e poi il medesimo algoritmo scritto da un esperto, vedrai molte meno linee di codice e un ottimizzazione del codice che porta allo stesso risultato ( se non migliore ) con meno lavoro.
Poi magari mi sbaglio, ma penso che dovrebbero puntare più su rivoluzionare l'elaborazione della grafica.

No chiaro, il miglioramento può avvenire su più fronti: non volevo far intendere altro.
Però l'ultimo salto di prestazioni ed efficienza veramente grande è stato merito principalmente del processo produttivo, perchè tra Pascal e Maxwell c'erano sì delle differenze, ma non è stata certo una rivoluzione.
Al contrario, fu molto più grosso il passaggio Kepler-Maxwell, come giustamente ricordi tu, che ha permesso, a pari processo produttivo, di guadagnare un 40-50% di prestazione a pari consumo. Maxwell, se confrontato con quello che faceva Kepler o che faceva la concorrenza a pari processo produttivo era un mezzo miracolo, soprattutto in DX11, perchè in DX12 AMD recuperava un po' (Kepler no, affondava del tutto).

Volevo dire che secondo me certi numeri (2x quasi di prestazioni ed efficienza) non li vedremo più perchè ottenerli tramite affinamenti dell'architettura ormai è complicato: servirebbe un qualcosa di rivoluzionario che al momento non è all'orizzonte, anche perchè ormai ci si concentra sul ray tracing. Del resto il passaggio Maxwell-Kepler è stato l'ultimo che ha prodotto un grosso miglioramento di efficienza lato Nvidia.
D'altra parte anche la corsa dei processi produttivi ha rallentato, perchè siamo sempre più vicini ai limiti fisici del silicio.
 
Da qui si capisce meglio il motivo per cui la 4080 4070 12GB e' stata "ritirata" prima del lancio:
Senza il DLSS3 (che si e' visto non essere esclusivo) si sarebbe posizionata dietro la 3090TI, (anzi molto vicina alla 3090... e addirittura anche alla 3080TI, in 3DMark Speedway test), venduta ad un prezzo maggiore, con meta' della VRAM.

Ma questa (a mio avviso) non e' una bella notizia perche', se fosse uscita a quel prezzo, NVidia avrebbe dovuto abbassare di conseguenza il costo delle ammiraglie serie 3000 per riuscire a venderla... ed invece sembra che non abbia proprio intenzione di intervenire su quel fronte.

Una riprova sarebbe che continua a sfornare NUOVI modelli della serie 3000 (quando in teoria dovrebbe iniziare a pensare alla gen. 4000), come le 3060 e 3060TI con le GDDR6X:

Ma spunta anche un nuovo modello di 3070TI, con una variante del chip GA102: GA102-150
Se e' vero che AMD uscira' solo con 7900XTX e 7900XT... temo che anche lei voglia battere sullo stesso ferro (continuare a vendere e non abbassare i prezzi della gen. precedente)

Spero invece che il 3 Novembre annunci anche le date di 7800/7800XT (almeno).
 
Da qui si capisce meglio il motivo per cui la 4080 4070 12GB e' stata "ritirata" prima del lancio:
Senza il DLSS3 (che si e' visto non essere esclusivo) si sarebbe posizionata dietro la 3090TI, (anzi molto vicina alla 3090... e addirittura anche alla 3080TI, in 3DMark Speedway test), venduta ad un prezzo maggiore, con meta' della VRAM.

Ma questa (a mio avviso) non e' una bella notizia perche', se fosse uscita a quel prezzo, NVidia avrebbe dovuto abbassare di conseguenza il costo delle ammiraglie serie 3000 per riuscire a venderla... ed invece sembra che non abbia proprio intenzione di intervenire su quel fronte.

Una riprova sarebbe che continua a sfornare NUOVI modelli della serie 3000 (quando in teoria dovrebbe iniziare a pensare alla gen. 4000), come le 3060 e 3060TI con le GDDR6X:

Ma spunta anche un nuovo modello di 3070TI, con una variante del chip GA102: GA102-150
Se e' vero che AMD uscira' solo con 7900XTX e 7900XT... temo che anche lei voglia battere sullo stesso ferro (continuare a vendere e non abbassare i prezzi della gen. precedente)

Spero invece che il 3 Novembre annunci anche le date di 7800/7800XT (almeno).

Sì, concordo, la situazione sembra questa.
A me va benissimo, non compro nulla e risparmio 👌
 
Se e' vero che AMD uscira' solo con 7900XTX e 7900XT... temo che anche lei voglia battere sullo stesso ferro (continuare a vendere e non abbassare i prezzi della gen. precedente)
AMD dovrebbe avere molto meno il problema di un eccesso di produzione della generazione precedente.

Teoricamente a gennaio le serie 6000 nuove dovrebbero non vedersi quasi più (nuove).
Invece le ampere ho sentito potrebbero andare avanti a vendere per molti altri mesi prima di esaurirsi.
 
AMD dovrebbe avere molto meno il problema di un eccesso di produzione della generazione precedente.

Teoricamente a gennaio le serie 6000 nuove dovrebbero non vedersi quasi più (nuove).
Invece le ampere ho sentito potrebbero andare avanti a vendere per molti altri mesi prima di esaurirsi.
Ci spero!
Perche' mentre lato NVidia non ho nessuna intensione di sostituire la 3080, vorrei valutare invece la nuova architettura AMD sia lato RT, sia lato GPU Compute (con i "nuovi" tensor cores)... al posto dell'attuale 6700XT.

E dato che non necessito di "ultra performance", il 3 Novembre mi piacerebbe sentire l'annuncio del lancio (anche come data approssimativa) pure delle 7800/7800XT... e magari anche delle 7700XT
(non sono tanto ottimista, ma sarei felice di sorprendermi!)

E poi AMD aveva anche annunciato la serie 8000 entro il 2024 (almeno secondo questa RoadMap di Giugno)... quindi dovranno pur darsi una mossa se vogliono vendere un po' di esemplari della serie 7000 😇

Aggiungo...
Mi sta piacendo questa politica piu' "aggressiva" di AMD, anche (soprattutto!) lato software/sviluppatori (FINALMENTE!).
Spero non accada, come in passato, che poi non dia continuita' alle proprie scelte.
 
Ultima modifica:
@Ghostlu era per te la seconda, lo so che non sei uno spendaccione ma così risparmi 400€ e la puoi comprare, una per te e una per tuo fratello
 
Se un connettore 12pin non bastasse ... ci mettiamo anche il secondo... 😳

GalaX RTX 4090 HallOfFame (con 28+4 phase VRM)
 
Pubblicità
Pubblicità
Indietro
Top