UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
La 4090 è fuori discussione`, troppo grossa consuma troppo, la 3080 onestamente mi basta la mia la si può chiamare semplicemente "scimmia"

E allora lascia perdere. Stai con la RTX3080 fino alla prossima infornata, o quanto meno aspetta AMD.
Le 4080 convincono proprio poco: l'unica cosa che mi incuriosisce è il DLSS 3.0, ma tanto all'inizio ci sarà una fase di rodaggio (anche in termini di numero di giochi supportati).
 
E allora lascia perdere.
Stai con la RTX3080 fino alla prossima infornata. O quanto meno aspetta AMD. Le 4080 convincono proprio poco: l'unica cosa che mi incuriosisce è il DLSS 3.0, ma tanto all'inizio ci sarà una fase di rodaggio (anche in termini di numero di giochi supportati).
a no ma aspettare AMD è di obbligo questo è certo di certo non faccio il beta tester prendendo una scheda al D1

Se proprio la prendo sarà un mese o due dopo il lancio ma penso proprio che a sto giro aspetto quanto meno l'uscita delle successive super/ti

Sono abbastanza certo che queste nuove schede venderanno poco e Nvidia si troverà con un numero abbastanza grande di chip da smaltire e sarà costretta ad un taglio di prezzi mettendo chip più potenti come ha fatto per la serie 2000

Se poi AMD caccia qualcosa di veramente buono non è nemmeno detto che non ci faccio un pensiero

L'istino mi dice che stavolta conviene aspettare e raramente mi sbaglio
 
Questa notizia, seppur indirettamente, credo possa interessare agli acquirenti di una RTX 4000.
--- i due messaggi sono stati uniti ---
OC, presumibilmente ad aria (68 gradi max), della 4090.
Stranamente lineare l'aumento di clock (10%) e assorbimento (sempre 10%).
RTX4090-GPUZ2-768x1161.jpg
 
Ultima modifica:
io sono ancora motlo indeciso se prendere una 4080 16GB o aspettare che escano eventualmente le super/ti il mio istinto mi dice che stavolta conviene aspettare
Onestamente a sto giro... passo!

Forse mi guardero' in giro verso Aprile/Maggio... e non sono neanche tanto convinto che questa generazione duri 2 anni.

Sembra tanto che NVidia abbia "solo" maggiorato le cose (maggiore L2 cache, Tensor Cores, Cuda Cores...), grazie anche al miglior processo produttivo 10nm -> 5nm (che avrebbe gia' voluto cambiare a meta' serie 3000, passando con TSMC 8nm), senza in realta' introdurre novita' importanti (tranne lato streaming), come avvenuto nella serie serie 2000 e 3000... mentre ha dato il via (negli ultimi 2 anni sia su github, sia con librerie proprie) a molti progetti software che potrebbero (anche) trovare future accelerazioni hardware.

Ed ho come l'impressione che ci si possa attendere una serie 5000 gia' il prossimo anno... ma dipendera' molto anche come si collochera' AMD con le nuove RDNA3

brh ho pure la ps5😀
E senza dimenticare l'Oculus... 😀
Praticamente... Gamer Inside... Outside... and All Around 😄😉
 
Questa notizia, seppur indirettamente, credo possa interessare agli acquirenti di una RTX 4000.
--- i due messaggi sono stati uniti ---
OC, presumibilmente ad aria (68 gradi max), della 4090.
Stranamente lineare l'aumento di clock (10%) e assorbimento (sempre 10%).
RTX4090-GPUZ2-768x1161.jpg
Manca una parte importante di questo screen :

There are a few things to note, however. First, we do not know what workload was used, it could just as well be some ancient gaming benchmark that has very low GPU use. Second, the real-time values are not shown here, so we can only see peak. Also keep in mind that 50.6 MHz memory clock and hot spot temperature of 40.3°C are minimum values, not the maximum.


116756_ba75a61484187b5458829a1366e89707269923679jpg@1554w.jpg.webp


The other test, which looks like Furmark, is a different story. The RTX 4090 draws a ridiculous 615W power (GPU: 498W + Board: ~117W) while running at 2.64GHz. This is crazy, especially considering that the 4090 has a TBP of 450W. This means that the power limits of the Ada Lovelace flagship aren’t hardwired and will be alterable using the BIOS. Enthusiasts have been leveraging this for years to push their cards to their limits.

 
Hai fatto bene ad aggiungerla.
Manca una parte importante di questo screen :

There are a few things to note, however. First, we do not know what workload was used, it could just as well be some ancient gaming benchmark that has very low GPU use. Second, the real-time values are not shown here, so we can only see peak.
Onestamente questa parte non l'ho capita: se fosse "very low gpu use" non riporterebbe un assorbimento di 492w. No?
 
Hai fatto bene ad aggiungerla.

Onestamente questa parte non l'ho capita: se fosse "very low gpu use" non riporterebbe un assorbimento di 492w. No?
492 lo vedi perchè c'è il valore su max , come anche la frequenza, ma per esempio non mostra il valore massimo raggiunto dall'hotspot memorie ecc ecc, poi dipende anche da cosa è stato in esecuzione e per quanto tempo
 
492 lo vedi perchè c'è il valore su max , come anche la frequenza, ma per esempio non mostra il valore massimo raggiunto dall'hotspot memorie ecc ecc, poi dipende anche da cosa è stato in esecuzione e per quanto tempo
Idem per i 3135Mhz che son di picco. Quello che voglio dire è che un carico "pesante" dev'esser stato eseguito per aver registrato 492w.
 
116756_ba75a61484187b5458829a1366e89707269923679jpg@1554w.jpg.webp


The other test, which looks like Furmark, is a different story. The RTX 4090 draws a ridiculous 615W power (GPU: 498W + Board: ~117W) while running at 2.64GHz. This is crazy, especially considering that the 4090 has a TBP of 450W. This means that the power limits of the Ada Lovelace flagship aren’t hardwired and will be alterable using the BIOS. Enthusiasts have been leveraging this for years to push their cards to their limits.


Però ricordiamo anche che Furmark è un test stupido per una GPU da gaming: qualsiasi GPU assorbe molto di più in Furmark se il power limit glielo consente, altrimenti taglia pesantemente frequenza e tensione.
La notizia praticamente è che il TBP di certe RTX4090 si potrà alzare fino a 600 watt, il chè francamente non mi sorprende: continuo a non capire il senso di spingere gli assorbimenti a livello così assurdi, ma ok, per chi è appassionato di overclock verrà utile.

Hai fatto bene ad aggiungerla.

Onestamente questa parte non l'ho capita: se fosse "very low gpu use" non riporterebbe un assorbimento di 492w. No?

Hai ragione, anche se pure quella voce è la massima riportata, quindi l'assorbimento medio potrebbe essere più basso.
Più che altro l'osservazione dovrebbe essere che, a seconda del carico, la frequenza massima a cui la GPU opera stabilmente è diversa: se è un test leggerino o datato (ma comunque che impegna la GPU al 100%), potrebbero essere riusciti a overcloccarla di più di quanto effettivamente sarebbe possibile fare mediamente nei giochi moderni.

Poi come già detto quella è la frequenza massima, ma conta di più quella media mantenuta durante il carico... Comunque partendo da 2700MHz e rotti già a stock, 3100MHz di frequenza è un risultato buono, ma niente di assurdo.
 
Hai ragione, anche se pure quella voce è la massima riportata, quindi l'assorbimento medio potrebbe essere più basso.
Più che altro l'osservazione dovrebbe essere che, a seconda del carico, la frequenza massima a cui la GPU opera stabilmente è diversa: se è un test leggerino o datato (ma comunque che impegna la GPU al 100%), potrebbero essere riusciti a overcloccarla di più di quanto effettivamente sarebbe possibile fare mediamente nei giochi moderni.

Poi come già detto quella è la frequenza massima, ma conta di più quella media mantenuta durante il carico... Comunque partendo da 2700MHz e rotti già a stock, 3100MHz di frequenza è un risultato buono, ma niente di assurdo.

La frequenza stock dovrebbe essere 2850Mhz (parliamo sempre del famoso algoritmo di boost che utilizza Nvidia a partire da Pascal) quindi siamo nell'ordine del 10%.
Guardando il primo screen, quello dei 2700Mhz, mi è venuto il dubbio sia artefatto perché i 22 gradi della cpu sono davvero difficili da registrare anche a completo riposo, ma è solo una supposizione.

Tornando al secondo, è lecito pensare che la frequenza stabile raggiunta in OC da quel sample sia tra i 3050 e i 3100Mhz.
 
Secondo voi ci starò in 500/600 euro con una 4060?
Spesso vengono definito "cattivo" perché rispondo male, ma di certo voi con queste domande ve la cercate proprio.
Ma secondo te che risposta ti dovremmo dare ? Manco avessimo la sfera di cristallo per vedere il futuro. Se vuoi puoi chiamare Wanna Marchi cosi ti risponde lei e visto che ci sei ti da anche i numeri vincenti.
cit: "DACCORDO !!!!!!"
 
Pubblicità
Pubblicità
Indietro
Top