UFFICIALE Nvidia RTX 5000: Blackwell

Pubblicità
voglio dire che il frametime deve essere coerente con il nuemro di frame che produci e non avere picchi

non ha nessuna importanza se hai un frame variabile questo dipende dalle scene deve essere consistente come pacing

Se quandop fai 80 frame tutti i frame impiegano 12.5 ms e quando ne fai 100 impiegano circa 10 ms non c'è nessun problema

Non è il numero di frame che fa la differenza ma la consistenza del frame-time
Abbi pazienza ma per me è arabo, a me basterebbe avere la conferma che stia funzionando come si deve e che non ho buttato 1000 euro di gpu
Ho fatto un po' di sezione con abbie quando incontra i mostri e non ho più notato microscattini, è già qualcosa.
 
Abbi pazienza ma per me è arabo, non ho idea di come verificare ciò

devi mettere la barra del framteime con OSD di afterburner e rivatuner al livello grafico

1744664429999.webp

vedi come è piatta significa che non c'è nessun tipo di stuttering e il framerate è coerente

ogni frame ha un tempo di " esecuzione" se il tempo di esecuzione di un singolo frame è troppo alto allora hai un episodio di stutter o micro stutter
Se è un episodio isolato ok ma se è ripetitivo hai stuttering e non hai una buona esperienza di gioco

quando fai 100 frame ogni frame dovrebbe impiegare circa 10 ms più questo tempo è costante più l'esperienza è fluida, se tra tutti questi frame uno oo piùà frame impiega molto di più hai uno scatto o un micro scatto

non è importante che il frame passi da 100 a 80 ma che il frametime sia coerente con il framerate se quando ne fai 100 i frame impiegano 10 ms e quando ne fai 80 impiegano 12,6 ms non ci sarà nessun problema il frame varia a seconda della complessità della scena
 
Ultima modifica:
Pensala come ti pare io lòe schede AMd non le voglio manco se me le regalano finchè non vedo una vera innovazione che attualmente non c'è

questo non significa che non faccia anche buone schede con ottime performance ma quando si parla di innovazione sulle tecnologie grafiche c'è poco da fare Nvidia che a te piaccia o meno sta avanti e di un bel pò

che poi si faccia pagare siano stronzi cinici bastardi e anti consumer non cambia questi semplici fatti, non hanno attualmente una reale concorrenza che e diventa 0 quando si parla di fascia alta e in ambito lavorativo professionale

Questa è la dura realtà, possiamo parlargli male dietro quanto ci pare, ma la realtà attuale non cambia
Sulla fascia alta questo concordo con Crime

Ma io lo ammetto di essere il primo pazzo! 🤣 Infatti non consiglio a nessuno di fare come me!😅
Dillo a me che tra poco mi faccio la 5090 😅
 
Sulla fascia alta questo concordo con Crime
io sono abituato a dire sinceramente quello che penso anche a costo di beccarmi del fanboy, ma in questi anni ho speso molto di più per prodotti AMD che su Nvidia quindi,,,

Semplicemente ed è un dato incontrovertibile sopra una certa fascia di schede non c'è altro e chi cerca delle performance elevatissime non ha alcuna scelta possibile In passato l'aveva ora non più

Questo non rende le 9070XT o la 9070 cattive schede? Assolutamente no, se prese al giusto prezzo sono sicuramente fantastiche ma il dato è che non sono schede da 4k sparato non sono schede adattissime alla VR, sono schede che perdono parecchie performance se si entra nel campo del Path Tracing, non sono schede che soddisfano affatto in ambito produttivo di vario tipo.

Quindi non sono schede adatte ad un certo tipo di utenza che cerca un certo tipo di cose, sarà un utenza anche "limitata" ma questa utenza non ha alcuna scelta pratica se non comprare una scheda Nvidia
Così come oggi non c'è una scelta se si vuole un processore da gioco ad altissime prestazioni si deve per forza prendere AMD

Schede che sono certamente adatte a molti utenti, ma non a chi cerca il top in assoluto.

Detto questo possiamo stare a discutere ore e ore di quanto siano migliorate nel corso degli anni le schede AMD ma come ho già detto il "gap" al livello tecnologico non si è oggettivamente accorciato, rimangono almeno una generazione indietro, perchè Nvidia non si ferma

Ovviamente più si va avanti e più i compromessi che bisognerà accettare sono minori, specie se si parla di rastering, ma la generazione di distacco se si guarda il gap rispetto alla generazione precedente rimane più o meno identico se non peggiore.

Facciamo finta che queste schede non hanno nessun marchio e che tutte le tecnologie si equivalgano, anche se non è così

Chi compra una 9070XT oggi sta prendendo fondamentalmente una 4070 ti super (con un lieve margine di performance in rasterizzazione).lo street price delle 9070XT orami è sulle 750 euro (minimo)
Buon prezzo ottima scheda ma rimane fondamentalmente qualcosa che potevi avere nella generazione precedente (a me questo onestamente non entusiasma)

Più vi ricordate tutte le polemiche per DLSS 3 FG che non stava sulle 3000?
Come era "soliti ladri", "lo hanno fatto a posta per far cambiare scheda" "tipico di Nvidia" "sono tutte scuse " ecc ecc ecc

FSR4 esclusiva delle 9000
"hanno fatto un gran lavoro"

E' un pochino "2 pesi 2 misure"


L'ultima scheda AMD che ho avuto è stata una R9 380x
A quel tempo le schede erano enormemente più concorrenziali, la 380x era praticamente migliore in tutto rispetto alla diretta rivale che era la GTX 960 e costava praticamente lo stesso.
Lì c'era una reale concorrenza almeno sulla carta, perchè poi i driver AMD erano un vero disastro e quando si parla di disatro non è quello che intendono oggi che un gioco specifico magari ogni tano va in crash, o qualche sbavatura qua e la

No almeno il 45% dei giochi dava BSOD random e questo è durato almeno 6 mesi finché un bel giorno hanno messo a posto il driver e i crash sono quanto meno diminuiti ad un numero molto meno consistente.
Per fortuna che oggi non esistono più driver in queste condizioni, ma se non fosse stato per i driver le schede AMD erano sulla carta molto più competitive di oggi, costavano uguale e davano performance sulla carta migliori
 
Ultima modifica:
ok quindi l'ho rimesso "usa impostazione dell'applicazione 3d"il resto è ok? vedo che l'app nelle impostazioni consigliate per il gioco mi dice di attivare il DLSS frame generation, gli dò retta o lo tengo disattivato?
per il sovrascrivi avevo scelto ultima ma mi esce così.
Non usarlo la scheda fa già tantissimi frame così come è, nel mio caso quando l’ho provato ad attivare inoltre peggiorava decisamente la qualità visiva essendo una vecchia implementazione del frame gen!

io sono abituato a dire sinceramente quello che penso anche a costo di beccarmi del fanboy, ma in questi anni ho speso molto di più per prodotti AMD che su Nvidia quindi,,,

Semplicemente ed è un dato incontrovertibile sopra una certa fascia di schede non c'è altro e chi cerca delle performance elevatissime non ha alcuna scelta possibile In passato l'aveva ora non più

Questo non rende le 9070XT o la 9070 cattive schede? Assolutamente no, se prese al giusto prezzo sono sicuramente fantastiche ma il dato è che non sono schede da 4k sparato non sono schede adattissime alla VR, sono schede che perdono parecchie performance se si entra nel campo del Path Tracing, non sono schede che soddisfano affatto in ambito produttivo di vario tipo.

Quindi non sono schede adatte ad un certo tipo di utenza che cerca un certo tipo di cose, sarà un utenza anche "limitata" ma questa utenza non ha alcuna scelta pratica se non comprare una scheda Nvidia
Così come oggi non c'è una scelta se si vuole un processore da gioco ad altissime prestazioni si deve per forza prendere AMD

Schede che sono certamente adatte a molti utenti, ma non a chi cerca il top in assoluto.

Detto questo possiamo stare a discutere ore e ore di quanto siano migliorate nel corso degli anni le schede AMD ma come ho già detto il "gap" al livello tecnologico non si è oggettivamente accorciato, rimangono almeno una generazione indietro, perchè Nvidia non si ferma

Ovviamente più si va avanti e più i compromessi che bisognerà accettare sono minori, specie se si parla di rastering, ma la generazione di distacco se si guarda il gap rispetto alla generazione precedente rimane più o meno identico se non peggiore.

Facciamo finta che queste schede non hanno nessun marchio e che tutte le tecnologie si equivalgano, anche se non è così

Chi compra una 9070XT oggi sta prendendo fondamentalmente una 4070 ti super (con un lieve margine di performance in rasterizzazione).lo street price delle 9070XT orami è sulle 750 euro (minimo)
Buon prezzo ottima scheda ma rimane fondamentalmente qualcosa che potevi avere nella generazione precedente (a me questo onestamente non entusiasma)

Più vi ricordate tutte le polemiche per DLSS 3 FG che non stava sulle 3000?
Come era "soliti ladri", "lo hanno fatto a posta per far cambiare scheda" "tipico di Nvidia" "sono tutte scuse " ecc ecc ecc

FSR4 esclusiva delle 9000
"hanno fatto un gran lavoro"

E' un pochino "2 pesi 2 misure"


L'ultima scheda AMD che ho avuto è stata una R9 380x
A quel tempo le schede erano enormemente più concorrenziali, la 380x era praticamente migliore in tutto rispetto alla diretta rivale che era la GTX 960 e costava praticamente lo stesso.
Lì c'era una reale concorrenza almeno sulla carta, perchè poi i driver AMD erano un vero disastro e quando si parla di disatro non è quello che intendono oggi che un gioco specifico magari ogni tano va in crash, o qualche sbavatura qua e la

No almeno il 45% dei giochi dava BSOD random e questo è durato almeno 6 mesi finché un bel giorno hanno messo a posto il driver e i crash sono quanto meno diminuiti ad un numero molto meno consistente.
Per fortuna che oggi non esistono più driver in queste condizioni, ma se non fosse stato per i driver le schede AMD erano sulla carta molto più competitive di oggi, costavano uguale e davano performance sulla carta migliori
Sono d’accordissimo sulla fascia alta o sulla produttività infatti!😉 Io schede AMD mai avute nella mia storia se non sul PC di mio fratello che prese una RX 580 come sua prima scheda che gli diede soddisfazioni enormi! Io sono partito con una 1080 durata 3 mesi sostituita perché difettosa con la 1080Ti, questa scheda è stata quella che ho tenuto più a lungo infatti la cambiai saltando la gen 2000 con la 3080. Poi da lì presi 4080 al lancio e 5080 adesso. Che Nvidia attualmente sia ancora avanti non ci piove, semplicemente vedo nel mercato l’esigenza di una alternativa! Se le 4000 mi avevano soddisfatto a pieno con la 4070 Super che è stata la migliore scheda secondo me degli ultimi 10 anni con le 5000 sono almeno per ora rimasto un po’ deluso. Non vedo un reale step per chi ha una 4000 a fare il salto, mentre immagino chi aveva una 3070 passare ad una 4070 Super era un balzo enorme in tutto. Come ho già detto qui spero che il Neural Rendering “anche se presente sulle vecchie RTX” dia un senso maggiore a queste 5000, perché attualmente più che una nuova gen di schede sembra più che altro un piccolo boost delle 4000. Lo stesso MFG bello eh per carità ma situazionale!
 
@dany9107 ecco i settings per l'HDR:













P.s in DP1,4 non arrivi a 1000 nits, ma si ferma a 400 da windows, in realtà è il vero HDR 400 true black e va benissimo, ci vuole HDMI 2,1 per aggirare windows, oppure puoi usare CRU e forzare, ci arrivi lo stesso.
Cambia poco è solo leggermente più luminoso, molti giochi tipo AW2 si fermano a 500 nits, quindi se non c'è il software sotto, ci fai poco.

Io uso anche reshade, lilium hdr per avere i neri veramente neri e luma per la definizione e per rimuovere il blur, i settings variano soggettivamente, l'importante è portare il nero a ZERO senza schiacciare ombre e dettagli.

E ultimo ma non meno importante devi crearti un profilo ICC per forzare la gamma, visto che windows tende a slavare i neri, lo crei con color control:
Immagine 2025-04-15 081004.webp

Anche questo ti aiuta tantissimo, se non vuoi usare reshade già questo migliora molto la curva che forza windows.
 
Poi mi chiedevi su TLOU2 per far funzionare tutto insieme reflex-fg-gsync senza sforare il refresh del monitor e senza mettere un cap manuale, ti confermo che reflex e FG funzionano anche qui con il mio metodo, e applica correttamente la formula matematica:
Che nel nostro caso con il G8 è:

175 - (175*175) /3600= 166,5, lui arrotonda a 166 fps, quindi è perfettamente funzionante e matematicamente corretto:



Ricordo le impostazioni:
sds.webp
 
cmq i problemi in shadows si vedono quando c'è foschia, lo ha evidenziato anche digital foundry e nel game c'è spesso la nebbia/foschia.
tu hai preso proprio la scena migliore :D
ma quello è+ il DLSS 4 che va peggio nel volumetrico mica il MFG
 
Ultima modifica:
@dany9107 ecco i settings per l'HDR:













P.s in DP1,4 non arrivi a 1000 nits, ma si ferma a 400 da windows, in realtà è il vero HDR 400 true black e va benissimo, ci vuole HDMI 2,1 per aggirare windows, oppure puoi usare CRU e forzare, ci arrivi lo stesso.
Cambia poco è solo leggermente più luminoso, molti giochi tipo AW2 si fermano a 500 nits, quindi se non c'è il software sotto, ci fai poco.

Io uso anche reshade, lilium hdr per avere i neri veramente neri e luma per la definizione e per rimuovere il blur, i settings variano soggettivamente, l'importante è portare il nero a ZERO senza schiacciare ombre e dettagli.

E ultimo ma non meno importante devi crearti un profilo ICC per forzare la gamma, visto che windows tende a slavare i neri, lo crei con color control:

Anche questo ti aiuta tantissimo, se non vuoi usare reshade già questo migliora molto la curva che forza windows.
Perfetto ti ringrazio! Il profilo colore l’avevo già creato con l’app microsoft per la calibrazione! Va bene quella? Purtroppo devo restare in displayport perché l’uscita hdmi è occupata dalla TV! Che software è CRU? È quello che utilizzi nella prima foto?

Poi mi chiedevi su TLOU2 per far funzionare tutto insieme reflex-fg-gsync senza sforare il refresh del monitor e senza mettere un cap manuale, ti confermo che reflex e FG funzionano anche qui con il mio metodo, e applica correttamente la formula matematica:
Che nel nostro caso con il G8 è:

175 - (175*175) /3600= 166,5, lui arrotonda a 166 fps, quindi è perfettamente funzionante e matematicamente corretto:



Ricordo le impostazioni:
Visualizza allegato 491957
Sì fatto questo! Cappa a 167 frame infatti, rare volte l’ho visto salire massimo a 168!
 
Poi mi chiedevi su TLOU2 per far funzionare tutto insieme reflex-fg-gsync senza sforare il refresh del monitor e senza mettere un cap manuale, ti confermo che reflex e FG funzionano anche qui con il mio metodo, e applica correttamente la formula matematica:
Che nel nostro caso con il G8 è:

175 - (175*175) /3600= 166,5, lui arrotonda a 166 fps, quindi è perfettamente funzionante e matematicamente corretto:



Ricordo le impostazioni:
Visualizza allegato 491957
Conviene che lo faccia anch'io di attivare reflex e FG(nell'app o nel menù di gioco?) o essendo il mio monitor solo a 100 hz è sufficiente il vsync?
 
cmq questi driver sono proprio rotti...
non so se è un problema che si verifica solo con AC ma il GSYNC è veramente problematico, da quando ho preso la 5000.

basta fare ALT+TAB per passare dal gioco al browser che il GSYNC si disattiva e non si riattiva più.
io lo vedo subito dal counter hardware del monitor che si blocca al massimo refresh rate....

la cosa un pò fastidiosa è che per riabilitarlo devo andare in nvidia app, fare reimposta sul gioco, e rimettere a mano i settaggi che nel mio caso sono GSYNC, VSYNC, Reflex, MFG 3x, prestazioni massime

Poi mi chiedevi su TLOU2 per far funzionare tutto insieme reflex-fg-gsync senza sforare il refresh del monitor e senza mettere un cap manuale, ti confermo che reflex e FG funzionano anche qui con il mio metodo, e applica correttamente la formula matematica:
Che nel nostro caso con il G8 è:

175 - (175*175) /3600= 166,5, lui arrotonda a 166 fps, quindi è perfettamente funzionante e matematicamente corretto:



Ricordo le impostazioni:
Visualizza allegato 491957
il divisore dei 3600 vale pure per un 160Hz? perchè altrimenti questa è la matematica sencondo Aralee, a me cappa a 157FPS su un monitor 160Hz
 
Pubblicità
Pubblicità
Indietro
Top