UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
ma alla fine il dlss3 che frame rate richiede per evitare di avere un input lag alto?
Tipo in un gioco come cyberpunk se abitlito FG con 50 fps e ne ho 80 rischio di avere un input lag troppo alto?
 
ma alla fine il dlss3 che frame rate richiede per evitare di avere un input lag alto?
L'ionput lag è qualcosa di molto soggettivo, diepnde da come "lo senti" e da quanto ne sei sensibile

I giocatori di PC solitamente sono molto sensibili all'input lag ma non esiste un "valore minimo" pochè come già detto è soggettivo

Io consiglio di avere ALMENO una base di 55/60 fps per avere una buona esperienza di gioco ( quindi 110/120 in FG)

Tipo in un gioco come cyberpunk se abitlito FG con 50 fps e ne ho 80 rischio di avere un input lag troppo alto?
dovrestio avere sui 90/100 fps con una base di 50

Comunque non esiste una regola l'input lag lo senti se per te è eccessivo te ne accorgi subito
 
L'ionput lag è qualcosa di molto soggettivo, diepnde da come "lo senti" e da quanto ne sei sensibile

I giocatori di PC solitamente sono molto sensibili all'input lag ma non esiste un "valore minimo" pochè come già detto è soggettivo

Io consiglio di avere ALMENO una base di 55/60 fps per avere una buona esperienza di gioco ( quindi 110/120 in FG)


dovrestio avere sui 90/100 fps con una base di 50
Perché ho visto anche se FPS sono già molto alti il frame gen divente inutile mentre con pochi l'input lag è ridicolo
Quindi 100fps con FG dovrebbe andare bene si?
 
Perché ho visto anche se FPS sono già molto alti il frame gen divente inutile mentre con pochi l'input lag è ridicolo
Quindi 100fps con FG dovrebbe andare bene si?
E' quello che ripeto dall'inizio il FG non è una feature che ti allunga la vita di una scheda ma serve solo a rendere più fluida l'esperienza di gioco a patto che di base hai già una buona base

Se va bene dipende da te e da quanto ne sei sensibile, ogni persona ha una percezione differente dell'input lag a seconda di come è abituata a giocare e dalla sua sensibilità soggettiva

Se non lo "senti" va bene
 
E' quello che ripeto dall'inizio il FG non è una feature che ti allunga la vita di una scheda ma serve solo a rendere più fluida l'esperienza di gioco a patto che di base hai già una buona base

Se va bene dipende da te e da quanto ne sei sensibile, ogni persona ha una percezione differente dell'input lag a seconda di come è abituata a giocare e dalla sua sensibilità soggettiva

Se non lo "senti" va bene
Penso che dipenda dal gioco
Ma lfsr è inferiore solo in termini di artefatti o anche come input lag?
 
Penso che dipenda dal gioco
Ma lfsr è inferiore solo in termini di artefatti o anche come input lag?

l'FSR è inferiore e basta in termini di input lag non ho visto ancira analisi approfondite ma su una scheda nvidia sarà sicuramente peggiore in tutto in quanto non può utilizzare tecnologie di AMD.
 
Con il FG attivo, bisogna tenere attive tecnologie come V-sync e G-sync, solo una delle 2, entrambe disattivate?
E il limite degli fps massimi?
 
Con il FG attivo, bisogna tenere attive tecnologie come V-sync e G-sync, solo una delle 2, entrambe disattivate?
E il limite degli fps massimi?
Con il frame generation devi sempre impostare dal pannello nVidia(per ogni gioco in cui vuoi attivare il frame gen) i seguenti settings:

VSync: Attivato
Tecnologia Monitor : "Compatibilità G Sync
Velocità Aggiornamento: La più elevata disponibile

Poi pero dal menù del gioco in questione devi disattivare il V Sync( lo hai forzato tramite pannello nvidia).

Se farai così si applicherà in automatico un cap degli fps pari al tuo massimo refresh rate del monitor, questo sta a significare che Reflex è in funzione, ed in più V sync e G sync stanno lavorando nella maniera migliore.

N.B. Queste sono le linee guida nVidia per avere g sync e v sync contemporaneamente attivi insieme al frame gen, se attivi il V Sync dal gioco ti da un tearing mostruoso.
 
Con il frame generation devi sempre impostare dal pannello nVidia(per ogni gioco in cui vuoi attivare il frame gen) i seguenti settings:

VSync: Attivato
Tecnologia Monitor : "Compatibilità G Sync
Velocità Aggiornamento: La più elevata disponibile

Poi pero dal menù del gioco in questione devi disattivare il V Sync( lo hai forzato tramite pannello nvidia).

Se farai così si applicherà in automatico un cap degli fps pari al tuo massimo refresh rate del monitor, questo sta a significare che Reflex è in funzione, ed in più V sync e G sync stanno lavorando nella maniera migliore.

N.B. Queste sono le linee guida nVidia per avere g sync e v sync contemporaneamente attivi insieme al frame gen, se attivi il V Sync dal gioco ti da un tearing mostruoso.
il v sync oggi è una cosa che io reputo facoltativa

Lo puoi attivare e disattivare nelle impostazioni di gioco a seconda dell'occorrenza
Con un buon monitor non ho mai più avuto teraing in nessuna situaizone
 
il v sync oggi è una cosa che io reputo facoltativa

Lo puoi attivare e disattivare nelle impostazioni di gioco a seconda dell'occorrenza
Con un buon monitor non ho mai più avuto teraing in nessuna situaizone
Perché non lo noti forse Crime :)
Nono, con il frame gen devi seguire la procedura da me descritta, il V SYNC con il FG non te lo fa neanche attivare dal gioco, l'unico modo che hai per assicurarti che sia attivo è forzandolo dal pannello, e quindi eliminare il tearing che non se non fai come detto con il FG c'è sempre.
 

Allegati

  • Screenshot (990).webp
    Screenshot (990).webp
    65.1 KB · Visualizzazioni: 13
  • Screenshot (991).webp
    Screenshot (991).webp
    62.9 KB · Visualizzazioni: 13
  • Screenshot (992).webp
    Screenshot (992).webp
    62.2 KB · Visualizzazioni: 12
Perché non lo noti forse Crime :)
Nono, con il frame gen devi seguire la procedura da me descritta, il V SYNC con il FG non te lo fa neanche attivare dal gioco, l'unico modo che hai per assicurarti che sia attivo è forzandolo dal pannello, e quindi eliminare il tearing che non se non fai come detto con il FG c'è sempre.
mai avuto piùi tearing da quando sono passatop in QHD con gsync nè con FG nè senza
e non mi riferivo al FG ma in generale ovviamente per quei giochi che serve il FG lo devi attivare dal pannello ma a me non serve

il Tearing se ci sta LO NOTO eccome ma visto che non ci sta non ho bisogno di attivare il vsync io lo attivo solo se mi serve e NON mi serve, io non ho più tering da batman akam knight e il monitor @ 60hz senza g-sync


video pronto tra qualche minuto

tu hai tearing perchè hai una scheda cosi potente per il tuo monitor che vai fuori range.

il vsync con i monitor di oggi per me è inutile o è utile solo nei rarissimi casi in cui hai tearing ma a me non succede da tempo immemore.

Se succede spesso qualcosa non va nella build
 
Ultima modifica:
Ricordate l'altro giorno quando dicevo che, Lovelace risentiva sul voltaggio, ossia, anche a parità di frequenza core uguale allo stock, eventuali undervolt danno prestazioni minori, ad esempio:
STOCK 1.050mV@2685mHz
Undervolt: 925mV@2685mHz(+/-15MHz)

Il profilo undervolt, nonostante abbia la medesima frequenza dello stock, offre rispetto a quest'ultimo performance del 5% inferiori.
Monitorando su HWInfo mi sono reso conto che con undervolt la gpu riduce il ''GPU VIDEO CLOCK), il quale passa da 2.055MHz ad 1.860MHz. (IN ALLEGATO)
In generale io ottengo le prestazioni pari allo stock a 975mv@2790MHz.
Ecco forse risolto il mistero di Lovelace e della sua caratteristica con l'undervolt, in allegato la variazione del gpu video clock(penso che indica la frequenza minima della gpu? @pribolo) nel profilo stock ed a 925mV.

Credo non sia questa la soluzione, ma sicuramente ti sei avvicinato e mi hai dato l'input per approfondire.
Il Video Clock su internet è un oggetto misterioso, ma credo, per assonanza, riguardi il "Video Engine" della scheda video. Quest'ultimo è un altro oggetto misterioso: osservandone il comportamento penso sia semplicemente il decoder\encoder hardware utilizzato per accelerare (appunto) codifica e decodifica di certi formati di video.

Infatti provando a far partire un video su youtube:

Si vede l'uso del video engine salire ed è più alto salendo di risoluzione.

Il Video clock nel mio caso non cambia al variare del clock della GPU (impostando un offset su afterburner): tra l'altro rimane abbastanza costante anche scendendo di tensione per quello che ho visto (al contrario della tua). In ogni caso se riguarda la parte di decoder\encoder hardware è poco interessante.

La voce subito sotto invece può fornire, in parte, una risposta al tuo quesito: l'effective clock. Facendo undervolt vedrai un effective clock sotto carico inferiore rispetto al clock "standard" della scheda video: si intravede anche nel tuo screen. Questa dovrebbe essere la voce che registra l'avvenuto "clock stretching" sulle nuove GPU Nvidia. Non ho al momento la RTX3070 sotto mano per provare, ma scommetto che su Ampere non si registrano tali discrepanze.
Rimane da capire esattamente cosa triggeri il clock stretching: da quello che ho visto finora non c'è usando un offset sul clock, mentre c'è riducendo la tensione di lavoro massima della GPU modificando la curva. Ne ho in misura maggiore con il profilo 2760MHz 0.975V rispetto al profilo 2670MHz 0.925V, il che per certi versi può sembrare antiintuitivo.
Ci sarebbe da indagare meglio la questione...

non è una scheda da 4K e non lo è mai stata. Per il 4K il minimo oggi è la 4080.
CPU Limited ? Quei test sono fatti con PC allo stato dell’arte… ed in QHD di CPU limited non c’è nulla.
In QHD i 4GB di VRAM in più non servono a nulla e li hanno messi solo perché con quel bus la configurazione possibile in termini economici è 8 o 16 GB.

Il 4k è sicuramente un mattone e più potenza grafica hai meglio è. Per certi giochi fa comodo addirittura una 4090, altro che 4080...
Detto questo, con qualche compromesso una 4070 Ti Super lo può fare: tolti Cyberpunk 2077 e Alan Wake 2 con RT al massimo dove effettivamente è piuttosto in crisi (anche la 4080 per la verità), altrove basta un DLSS a quality ed eventualmente qualche piccolo compromesso su altri settings pesanti per andare ben oltre i 60fps.
Detto questo, è chiaro che a quel livello di budget, conviene il QHD per un sistema puramente da gioco: la differenza QHD - 4k non è eccessiva e si risparmia anche sul monitor. Questo non lo metto assolutamente in dubbio.

Per quanto riguarda la VRAM in più, potrà non essere strettamente necessaria nei giochi attuali, ma, banalmente, meglio averla che non averla, perchè non sono così sicuro che in un futuro, anche a medio termine, non tornerà utile per qualche gioco next gen.
Quindi la ritengo un'aggiunta gradita che contribuisce al valore del prodotto. Per questo tutto sommato il mio giudizio sulla 4070 Ti Super non è negativo, anche se indubbiamente non porta la stessa "aggiunta di valore" della 4070 Super.

+5… +3%…. E le prestazioni cambiano dello 0.7%. Non capisco proprio come lo giustifichi.

Allora, sinceramente anche io mi aspettavo qualcosa in più specifiche alla mano.
+5% di core non significa assolutamente +5% di performance perchè ci sono altre risorse della GPU che contribuiscono alla performance totale che non sono state automentate (pensiamo alla parte di rasterizzazione o alla cache). Ovviamente lo stesso discorso vale ancor più per le memorie: con +20% di bandiwidth è già tanto se si guadagna il 5% di performance.

Se avessei dovuto fare una scommessa prima dell'uscita sul mercato del prodotto avrei indicato un guadagno medio intorno al 3%, invece siamo più bassi.
Probabilmente è in parte una questione di frequenza, perchè la 4080 Super sembra boostare più bassa della 4080 liscia (almeno guardando le FE):

4080 Super FE:
1707128077735.png

4080 FE:
1707128120088.png

La suite di test è diversa, quindi i valori medi non sono proprio immediatamente confrontabili: comunque vediamo 45MHz di differenza. In Cyberpunk 2077 addirtittura sono 60MHz. Questo chiaramente vale qualcosa a livello di performance: un 2% di clock non significa 2% in più di prestazione, ma un 1-1.5% sì.

Anche la silicon lottery può centrare qualcosa perchè differenze di qualche decina di MHz sono assolutamente possibili da un sample all'altro. Del resto, parlando di differenze prestazionali così esigue, i fattori in gioco per avere una stima precisa sono diversi.


Il prezzo era già sceso. Le 4080 costavano meno già prima dell’uscita delle Super.
L’abbassamento di prezzo tu lo vedi come una novità, ma la realtà è che la bolla è scoppiata e prima della bolla una tecnologia che comincia ad andare verso i due anni di vita era NATURALE che scendesse di prezzo.
Le porcate fatte da Nvidia nell’ultimo quinquennio ti hanno condizionato…

Il prezzo della 4080 era sceso, ma non tanto come adesso: io prima dell'annuncio delle Super non ho mai visto una 4080 sotto i 1200€, a parte le solite Manli in negozi ignoti. La media su Amazon.it era oltre i 1300€.
Ora ci sono alcune 4080 Super acquistabili già sui 1100-1150€: mediamente direi un 100€ di calo rispetto a prima di Natale. Ripeto, non è tanto e io sono il primo a dire che sarebbe stato auspicabile avessero osato di più. Però sinceramente visto la scarsa concorrenza di AMD nella fascia alta (più per scelta che per impossibilità tecnica, per me) non mi aspettavo nulla di diverso.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top