Ricordate l'altro giorno quando dicevo che, Lovelace risentiva sul voltaggio, ossia, anche a parità di frequenza core uguale allo stock, eventuali undervolt danno prestazioni minori, ad esempio:
STOCK 1.050mV@2685mHz
Undervolt: 925mV@2685mHz(+/-15MHz)
Il profilo undervolt, nonostante abbia la medesima frequenza dello stock, offre rispetto a quest'ultimo performance del 5% inferiori.
Monitorando su HWInfo mi sono reso conto che con undervolt la gpu riduce il ''GPU VIDEO CLOCK), il quale passa da 2.055MHz ad 1.860MHz. (IN ALLEGATO)
In generale io ottengo le prestazioni pari allo stock a 975mv@2790MHz.
Ecco forse risolto il mistero di Lovelace e della sua caratteristica con l'undervolt, in allegato la variazione del gpu video clock(penso che indica la frequenza minima della gpu?
@pribolo) nel profilo stock ed a 925mV.
Credo non sia questa la soluzione, ma sicuramente ti sei avvicinato e mi hai dato l'input per approfondire.
Il Video Clock su internet è un oggetto misterioso, ma credo, per assonanza, riguardi il "Video Engine" della scheda video. Quest'ultimo è un altro oggetto misterioso: osservandone il comportamento penso sia semplicemente il decoder\encoder hardware utilizzato per accelerare (appunto) codifica e decodifica di certi formati di video.
Infatti provando a far partire un video su youtube:
Si vede l'uso del video engine salire ed è più alto salendo di risoluzione.
Il Video clock nel mio caso non cambia al variare del clock della GPU (impostando un offset su afterburner): tra l'altro rimane abbastanza costante anche scendendo di tensione per quello che ho visto (al contrario della tua). In ogni caso se riguarda la parte di decoder\encoder hardware è poco interessante.
La voce subito sotto invece può fornire, in parte, una risposta al tuo quesito: l'effective clock. Facendo undervolt vedrai un effective clock sotto carico inferiore rispetto al clock "standard" della scheda video: si intravede anche nel tuo screen. Questa dovrebbe essere la voce che registra l'avvenuto "clock stretching" sulle nuove GPU Nvidia. Non ho al momento la RTX3070 sotto mano per provare, ma scommetto che su Ampere non si registrano tali discrepanze.
Rimane da capire esattamente cosa triggeri il clock stretching: da quello che ho visto finora non c'è usando un offset sul clock, mentre c'è riducendo la tensione di lavoro massima della GPU modificando la curva. Ne ho in misura maggiore con il profilo 2760MHz 0.975V rispetto al profilo 2670MHz 0.925V, il che per certi versi può sembrare antiintuitivo.
Ci sarebbe da indagare meglio la questione...
non è una scheda da 4K e non lo è mai stata. Per il 4K il minimo oggi è la 4080.
CPU Limited ? Quei test sono fatti con PC allo stato dell’arte… ed in QHD di CPU limited non c’è nulla.
In QHD i 4GB di VRAM in più non servono a nulla e li hanno messi solo perché con quel bus la configurazione possibile in termini economici è 8 o 16 GB.
Il 4k è sicuramente un mattone e più potenza grafica hai meglio è. Per certi giochi fa comodo addirittura una 4090, altro che 4080...
Detto questo, con qualche compromesso una 4070 Ti Super lo può fare: tolti Cyberpunk 2077 e Alan Wake 2 con RT al massimo dove effettivamente è piuttosto in crisi (anche la 4080 per la verità), altrove basta un DLSS a quality ed eventualmente qualche piccolo compromesso su altri settings pesanti per andare ben oltre i 60fps.
Detto questo, è chiaro che a quel livello di budget, conviene il QHD per un sistema puramente da gioco: la differenza QHD - 4k non è eccessiva e si risparmia anche sul monitor. Questo non lo metto assolutamente in dubbio.
Per quanto riguarda la VRAM in più, potrà non essere strettamente necessaria nei giochi attuali, ma, banalmente, meglio averla che non averla, perchè non sono così sicuro che in un futuro, anche a medio termine, non tornerà utile per qualche gioco next gen.
Quindi la ritengo un'aggiunta gradita che contribuisce al valore del prodotto. Per questo tutto sommato il mio giudizio sulla 4070 Ti Super non è negativo, anche se indubbiamente non porta la stessa "aggiunta di valore" della 4070 Super.
+5… +3%…. E le prestazioni cambiano dello 0.7%. Non capisco proprio come lo giustifichi.
Allora, sinceramente anche io mi aspettavo qualcosa in più specifiche alla mano.
+5% di core non significa assolutamente +5% di performance perchè ci sono altre risorse della GPU che contribuiscono alla performance totale che non sono state automentate (pensiamo alla parte di rasterizzazione o alla cache). Ovviamente lo stesso discorso vale ancor più per le memorie: con +20% di bandiwidth è già tanto se si guadagna il 5% di performance.
Se avessei dovuto fare una scommessa prima dell'uscita sul mercato del prodotto avrei indicato un guadagno medio intorno al 3%, invece siamo più bassi.
Probabilmente è in parte una questione di frequenza, perchè la 4080 Super sembra boostare più bassa della 4080 liscia (almeno guardando le FE):
4080 Super FE:
4080 FE:
La suite di test è diversa, quindi i valori medi non sono proprio immediatamente confrontabili: comunque vediamo 45MHz di differenza. In Cyberpunk 2077 addirtittura sono 60MHz. Questo chiaramente vale qualcosa a livello di performance: un 2% di clock non significa 2% in più di prestazione, ma un 1-1.5% sì.
Anche la silicon lottery può centrare qualcosa perchè differenze di qualche decina di MHz sono assolutamente possibili da un sample all'altro. Del resto, parlando di differenze prestazionali così esigue, i fattori in gioco per avere una stima precisa sono diversi.
Il prezzo era già sceso. Le 4080 costavano meno già prima dell’uscita delle Super.
L’abbassamento di prezzo tu lo vedi come una novità, ma la realtà è che la bolla è scoppiata e prima della bolla una tecnologia che comincia ad andare verso i due anni di vita era NATURALE che scendesse di prezzo.
Le porcate fatte da Nvidia nell’ultimo quinquennio ti hanno condizionato…
Il prezzo della 4080 era sceso, ma non tanto come adesso: io prima dell'annuncio delle Super non ho mai visto una 4080 sotto i 1200€, a parte le solite Manli in negozi ignoti. La media su Amazon.it era oltre i 1300€.
Ora ci sono alcune 4080 Super acquistabili già sui 1100-1150€: mediamente direi un 100€ di calo rispetto a prima di Natale. Ripeto, non è tanto e io sono il primo a dire che sarebbe stato auspicabile avessero osato di più. Però sinceramente visto la scarsa concorrenza di AMD nella fascia alta (più per scelta che per impossibilità tecnica, per me) non mi aspettavo nulla di diverso.