È evidente che il processo produttivo migliore ed una maggiore attenzione nella gestione dei VRM ha portato a benefici.
Le 3090 e 3090 Ti avevano dei grossi problemi nella gestione dei picchi (al punto che ne sono morte diverse…) e probabilmente Nvidia ha modificato il progetto.
Notevole vedere come la scheda consumi 450W ed arrivi ”solo” a picchi di 550W mentre le precedenti con 400W arrivavano a 600W…
La miglior gestione dei picchi si deve sicuramente a miglioramenti fatti nel VRM e forse in parte anche a una diversa taratura software del GPU boost. Il processo produttivo migliore è il principale artefice del miglioramento di efficienza generale (se non l'unico artefice).
Comunque sulla RTX3090ti già in parte i picchi erano stati limitati, altrimenti davvero avrebbe fatto spegnere anche alimentatori da 850 watt... Ma con la 4090 hanno completato il processo e adesso praticamente siamo dell'ordine del 10% in più del TBP per i picchi di potenza, escludendo gli outliers.
Penso che renderizza do a 1080p o 2k col dlss, la scheda non venga utilizzata al 100% ma probabilmente nea che 90-80%. Per quello consuma poco.
Certo non è male ma non mi pare una grande cosa che la scheda consumi poco quando resta parzialmente inattiva per via del carico.
No, non è per questo. Sicuramente in alcune circostanze la GPU, usando il DLSS, ricade in situazioni CPU limited e quindi il consumo scende ulteriormente: questo può succedere nel caso si veda un consumo intorno ai 300 watt, tipo Far Cry 6.
Ma ad esempio, in Cyberpunk in 4k con RT al massimo, anche con il DLSS a quality, la GPU è sicuramente impegnata al 100% abbinata a una CPU di fascia alta (Ryzen 9 7950x nell'esempio che ho postato), però il consumo scende di quasi 100 watt.
Attivando il DLSS, credo che la GPU lavori in modo diverso, perchè parte del tempo di occupazione è costituito dall'upscaling operato dai Tensor Core, fase in cui evidentemente la GPU consuma meno.
La stessa cosa, avviene, all'incontrario, con il Ray Tracing: senza Ray Tracing la GPU consuma meno, anche se è occupata al 100%.
Sempre prendendo ad esempio Cyberpunk, c'è anche un test di TPU interessante:
In fondo alla pagina si vede che la RTX4090 senza ray tracing consuma circa 400 watt, con ray tracing oltre 470 watt (comunque forse è un consumo di picco), ma con DLSS quality scende a 355.
Poi scende ulteriormente a 280 circa nel caso si usi il DLSS a performance, ma in quel caso si ricade già, forse, in una situazione CPU-limited.
Comunque sta di fatto che non basta più guardare al TBP per sapere quando consuma la scheda in gaming, almeno con la RTX4090. Molte volte, anche se sfruttata al 100%, trova prima il limite di tensione che il limite di potenza.