UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Vediamo @CEMT96 , una gpu con 16384 cuda core, un bandwidth di 1.008GB/s, 24GB di vram, 82 Teraflops fp32 mi sembra una gpu adatta al 1440p, oserei dire anche un pizzico di 1080p, se si gioca su un monitor 1080p 500hz.

Guarda io mi trattengo più che posso, ma a te e al tuo amico, la rtx 4090 ve la darei in testa.
Forse io la penso più nell'ottica di: Prendo una 4090 oggi e per i prossimi 7/8 anni non la faccio uscire dal PC. Almeno io la penso cosi. Ovvio che al giorno d'OGGI è una GPU overpawah per quella res (come lo era la 3080Ti 2/3 anni fa ma che ora comincia un attimino a mostrare il fianco in quella res) io però penso: mi prendo la scheda TOP di gamma, la ficco nel PC, vado nelle impostazioni e ficco ogni settaggio possibile ed immaginabile al massimo e per i prossimi 8 anni non ne voglio più sapere di schede video perchè starò sempre sopra i 60FPS MINIMO. Una 4090 è sprecata OGGI per il 1440p ma domani? Domani magari faticherà anche lei. Tutte ste cose mi erano state dette per la 3080TI che ho bellamente (e per fortuna per me aggiungerei) ingorato. Ho sempre agito così, prendo la GPU e la tengo per anni e se ne ho bisogno al massimo cambio CPU e MB
 
Crime una curiosità, potresti fare un semplice test su The Last Of Us che è un gioco abbastanza CPU intensive puoi provare a vedere quanti fps fai a nativo e quanti fps incrementi se attivi i vari dlss anche a performance? È un test per vedere se fino a che livello scendendo di risoluzione poi la cpu non sta più dietro. Ovvio potrebbe non accadere mai o potrebbe accadere anche subito con dlss quality ma è un bottleneck relativo avendo già dimostrato che fai comunque degli fps alti! Ti chiedo questo test solo per una pura curiosità eh😉 per conoscere il limite se c’è della cpu, ovviamente non vengo da Krypton e sto cercando di trovare il bottleneck a tutti i costi!🤣
te lo dico subito in quel gioco con una 4080 il limite è il QHD

Di fatto se si reindirizza in QHD l'attivazione del DLSS non porta benefici, ma il frame rimane coque godibile per cui abbiamo variabilmente 70/100 FPS a seconda delgi scenari con un frametiem piuttosto piatto.

Come possiamo vedere QUi in QHD nativo senza DLSS




L'ativazioen del DLSS in QHD con il 10700k non porta benefici. Qui possiamo parlare di una CPU che è arrivata al suo llimite

in 2160p la situazione cambia di fatto puoi attivare il DLSS e quindi aallo stesso modo

In 4k nativo avremmo un frame più basso


ma qui si può attivare il DLSS in modalità qualità



ma non si avranno più vantaggi ad usarlo in amodlità equilibrata o prestazioni
 
Follia anticipare soldi
1440p penso che farlo in full hd non abbia senso.😉 Vorrei riproporre questo test ma con cpu differente ecco:
a 1440p puoi reindirizzare in maniera nativa con un 10700k il processore è già `stressatissimo in quel gioco ti ho fatto i test sopra comunque 1440p e 4k,

in 1440p non hai benefici ad attivare il DLSS quindi il processore è al limite in nativo, ma come frametiame e fps ci siamo

In 1440p il DLSS ha effetto fino ad qualità il che conferma l'analisi di prima
 
Ultima modifica:
Forse io la penso più nell'ottica di: Prendo una 4090 oggi e per i prossimi 7/8 anni non la faccio uscire dal PC. Almeno io la penso cosi.
E la pensi male, anticipare soldi (che svalutano motlo meno) per hardware (che avluta motlo più in fretta) è la cosa più sbalgiata che uno possa fare in questo settore.

nonostante i prezzi adesso siano fuori scala chi ha preso una 3090 o una 3090 ti perché cosi "sarebbe stato a posti per anni " Si ritrova schede che nonostante siamo abbastanza potentio sono surclassate dalle attuali. con l'aggravante che non hanno ferrature come il DLSS 3 e hanno consumi nettamente superiori

:Lo stesso è successo a chi ha fatto il ragionamento con la 2080 ti ioos chedfe precedenti, non fia altro che comprare hardware a prezzi carissimi per poi farlo "svalutare" in frettissima

A cambiare una scheda ci vogliono 5 minuti, a guadagnare i soldi ci vuole molto di più
 
te lo dico subito in quel gioco con una 4080 il limite è il QHD

Di fatto se si reindirizza in QHD l'attivazione del DLSS non porta benefici, ma il frame rimane coque godibile per cui abbiamo variabilmente 70/100 FPS a seconda delgi scenari con un frametiem piuttosto piatto.

Come possiamo vedere QUi in QHD nativo senza DLSS




L'ativazioen del DLSS in QHD con il 10700k non porta benefici. Qui possiamo parlare di una CPU che è arrivata al suo llimite

in 2160p la situazione cambia di fatto puoi attivare il DLSS e quindi aallo stesso modo

In 4k nativo avremmo un frame più basso


ma qui si può attivare il DLSS in modalità qualità



ma non si avranno più vantaggi ad usarlo in amodlità equilibrata o prestazioni
Perfetto mi hai tolto il dubbio.😉 Per mandare in crisi il 10700K bisogna giustamente metterlo in 1440p con dlss, e comunque i frame che genera sono comunque sufficienti.👍🏻
 
Comunque io concordo con @Kal El quando dice che una 4090 è ottima in 1440p e che l'unico problema è che ancora non ci sono CPU in grado di sfruttarla a dovere su quella res. Avessi i soldi la prenderei anche io per giocare in 1440p. Ricordo ancora quando presi la mia 3080Ti per il 1440p e mi venne detto che era sprecata per quella res e che era una scheda da 4K, ora invece è diventata un'ottima scheda da 1440p e che su alcuni giochi già inizia a faticare tirando a bestia tutti i dettagli (A plague tale: requiem, Cyberpunk, RDR2 che senza DLSS mi gira a praticmaente 40FPS con tutti i dettagli maxati ecc..) Per fortuna non ascoltai che mi disse di prendere una 3070Ti o 3080 perchè il mio obbiettivo è quello di prendere un GPU e tenerla per almeno 7 anni (la buona vecchia 980Ti l'ho dismessa quando presi la 3080Ti 2 anni fa).
Tuttavia consiglio anche a @Kal El di lasciare perdere il 5900x se vuole SOLO giocare e prendere il 5800X3D, io lo possiedo ed è vermanete una bestia su AM4. Per non parlare del fatto che se si vule assemblare un buon PC pagando poco, a mio avviso, la combo 5800X3D+GPU RTX5xxx o RX7xxx è la scelta migliore. COn i soldi che risparmi su CPU, MB e RAM ti prendi una GPU migliore che puoi sfruttare
Vediamo @CEMT96 , una gpu con 16384 cuda core, un bandwidth di 1.008GB/s, 24GB di vram, 82 Teraflops fp32 e un prezzo di 2K, mi sembra una gpu adatta al 1440p, oserei dire anche un pizzico di 1080p, se si gioca su un monitor 1080p 500hz.

Guarda io mi trattengo più che posso, ma a te e al tuo amico, la rtx 4090 ve la darei in testa.
Forse io la penso più nell'ottica di: Prendo una 4090 oggi e per i prossimi 7/8 anni non la faccio uscire dal PC. Almeno io la penso cosi. Ovvio che al giorno d'OGGI è una GPU overpawah per quella res (come lo era la 3080Ti 2/3 anni fa ma che ora comincia un attimino a mostrare il fianco in quella res) io però penso: mi prendo la scheda TOP di gamma, la ficco nel PC, vado nelle impostazioni e ficco ogni settaggio possibile ed immaginabile al massimo e per i prossimi 8 anni non ne voglio più sapere di schede video perchè starò sempre sopra i 60FPS MINIMO. Una 4090 è sprecata OGGI per il 1440p ma domani? Domani magari faticherà anche lei. Tutte ste cose mi erano state dette per la 3080TI che ho bellamente (e per fortuna per me aggiungerei) ingorato. Ho sempre agito così, prendo la GPU e la tengo per anni e se ne ho bisogno al massimo cambio CPU e MB
A me quello che sostiene @CEMT96 sembra logico e lo condivido, anzi è la ragione per cui io acquisterei una 4090: il future-proof, visto anche il rapporto prezzo/prestazioni (pessimo) della serie 4000. Possiamo dire è una versione alternativa delle teorie in campo su questo post, si può benissimo giocare in 4K oggi, magari tra un po' di tempo si deve scendere a 1440p e magari ancora dopo altro tempo sei costretto al 1080p, però la scheda video la puoi tenere tanti anni.

Poi sarebbe @Kal El l'assolutista eh 😅

Dai ragazzuoli, voi la mettete troppo a mo' di sfida egocentrica personali fra voi, ormai quasi non si riesce a fare più una discussione (che è il fulcro di un FORUM) sui vari punti di vista personali 😉
 
Follia anticipare soldi

a 1440p puoi reindirizzare in maniera nativa con un 10700k il processore è già `stressatissimo in quel gioco ti ho fatto i test sopra comunque 1440p e 4k,

in 1440p non hai benefici ad attivare il DLSS quindi il processore è al limite in nativo, ma come frametiame e fps ci siamo

In 1440p il DLSS ha effetto fino ad qualità il che conferma l'analisi di prima
Sì infatti il limite della cpu avviene comunque ad un livello che non crea problemi, inoltre il frame time indica che anche con una cpu impegnatissima la stabilità del gioco è garantita. Potresti fare più fps con una cpu nuova? Si! Abbiamo bisogno di più di 70/80fps in The Last Of Us? Assolutamente no!😉
 
A me quello che sostiene @CEMT96 sembra logico e lo condivido, anzi è la ragione per cui io acquisterei una 4090: il future-proof, visto anche il rapporto prezzo/prestazioni (pessimo) della serie 4000. Possiamo dire è una versione alternativa delle teorie in campo su questo post, si può benissimo giocare in 4K oggi, magari tra un po' di tempo si deve scendere a 1440p e magari ancora dopo altro tempo sei costretto al 1080p, però la scheda video la puoi tenere tanti anni.

Poi sarebbe @Kal El l'assolutista eh 😅

Dai ragazzuoli, voi la mettete troppo a mo' di sfida egocentrica personali fra voi, ormai quasi non si riesce a fare più una discussione (che è il fulcro di un FORUM) sui vari punti di vista personali 😉
putroppo fosse vero, nessuno ti garantisce in questo momento che la 4090 sia "future proof" per via del ray tracing e del periodo di transizioen che viviamo, si parla che le 5000 abbiamo già core PTX cioè pensati per il path tracing

Quindi se metti una 4090 in QHD non fai altro che NON sftuttarla quando puopi farlo e probabilmente ti ritorverai comque una scheda che arranca quando uscirà la 5090 nei giochi che usano il PTX

Scenari già visti e rivisti con la 2080 ti con la 1080 ti, con la 3090 ti e con la 4090 non sarà affatto diverso
 
Sì infatti il limite della cpu avviene comunque ad un livello che non crea problemi, inoltre il frame time indica che anche con una cpu impegnatissima la stabilità del gioco è garantita. Potresti fare più fps con una cpu nuova? Si! Abbiamo bisogno di più di 70/80fps in The Last Of Us? Assolutamente no!😉
ma io non metto in dubbio questo, che bisognerà cambiare il 10700k perchè una 4080 "merita di meglio" è un ovvietà

Ma non vi sono problemi tecnici al livello di "CPU bottleneck" nella maggior parte dei giochi e degli scenari con quel processore, poi che è un pocessore vecchio rispetto a quelli moderni, e che fai molti più fps con un intel serie 13 o un ryzen 7000 sono banalità
 
Ultima modifica:
A me quello che sostiene @CEMT96 sembra logico e lo condivido, anzi è la ragione per cui io acquisterei una 4090: il future-proof, visto anche il rapporto prezzo/prestazioni (pessimo) della serie 4000. Possiamo dire è una versione alternativa delle teorie in campo su questo post, si può benissimo giocare in 4K oggi, magari tra un po' di tempo si deve scendere a 1440p e magari ancora dopo altro tempo sei costretto al 1080p, però la scheda video la puoi tenere tanti anni.

Poi sarebbe @Kal El l'assolutista eh 😅

Dai ragazzuoli, voi la mettete troppo a mo' di sfida egocentrica personali fra voi, ormai quasi non si riesce a fare più una discussione (che è il fulcro di un FORUM) sui vari punti di vista personali 😉
Certo che si può fare un discorso sui diversi punti di vista l’importante è che non si travisi mai la realtà.😉 Tornando al tuo discorso il prendere una scheda video più potente ora per il futuro penso è un ragionamento che poteva funzionare qualche anno fa dove tra una gen e l’altra vi era il solo incremento di prestazioni. Ora invece le cose sono cambiate ogni gen porta oltre l’incremento di prestazioni nuove tecnologie e future che cambiano anche radicalmente l’esperienza di gioco. Vedasi il Ray Tracing il DLSS 3 ed in futuro il probabile path tracing. Per tutto questo ragionamento ora conviene prendere la scheda ideale alla risoluzione in cui si vuole giocare è stare alla finestra ad ogni nuova gen per vedere se la novità presentata rappresenta o rappresenterà un valido motivo di upgrade.😉
 
Ma sono solo io l'unico cretino con la 3080 che non è mai andata sotto i 70 fps in nessun gioco? Ma proprio nessuno!
Boh io a volte non capisco se ci siete o ci fate...
Il discorso future-proof sulle schede video è la cosa più assurda che abbia mai sentito. Io compro quello che mi serve ORA, e al massimo lo tiro per 3 anni, la tecnologia avanza troppo velocemente.
Sì infatti il limite della cpu avviene comunque ad un livello che non crea problemi, inoltre il frame time indica che anche con una cpu impegnatissima la stabilità del gioco è garantita. Potresti fare più fps con una cpu nuova? Si! Abbiamo bisogno di più di 70/80fps in The Last Of Us? Assolutamente no!😉
Te figurati che io l'ho finito giusto ieri con la 3060😂 a 60 fps in 1440p dettagli max anche! E in left behind mi stava anche a 90!
 
Certo che si può fare un discorso sui diversi punti di vista l’importante è che non si travisi mai la realtà.😉 Tornando al tuo discorso il prendere una scheda video più potente ora per il futuro penso è un ragionamento che poteva funzionare qualche anno fa dove tra una gen e l’altra vi era il solo incremento di prestazioni. Ora invece le cose sono cambiate ogni gen porta oltre l’incremento di prestazioni nuove tecnologie e future che cambiano anche radicalmente l’esperienza di gioco. Vedasi il Ray Tracing il DLSS 3 ed in futuro il probabile path tracing. Per tutto questo ragionamento ora conviene prendere la scheda ideale alla risoluzione in cui si vuole giocare è stare alla finestra ad ogni nuova gen per vedere se la novità presentata rappresenta o rappresenterà un valido motivo di upgrade.😉

Fare un discorso del genere non ha portato mai grossi vantaggi nemmeno in passato anche se in passato era meno "evidente" in quanto le prestazioni si misuravano solo in rasterizzazione e non vi erano nessuna delle tecnologie di scaling
 
ma io non metto in dubbio questo, che bisognerà cambiare il 10770k perchè una 4080 "merita di meglio" è un ovvietà

Ma non vi sono problemi tecnici al livello di "CPU bottleneck" nella maggior parte dei giochi e degli scenari con quel processore, poi che è un pocessore vecchio rispetto a quelli moderni, e che fai molti più fps con un intel serie 13 o un ryzen 7000 sono banalità
Sì certo ma è un cambio che non dovrai di certo fare di corsa perché o mio dio non riesco a giocare ecco. Anzi in molti giochi il cap saranno gli hz del monitor quindi avere una cpu che spinge oltre è importante fino ad un certo punto. The Last Of Us è un gioco cpu intensive e comunque ti fa giocare mediamente su gli 80fps. Non pensò che se con un’altra cpu riusciresti a fare 120/130fps ti cambi molto su un gioco story driven da giocare principalmente con il pad.😉
 
Pubblicità
Pubblicità
Indietro
Top