UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Credimi ma io la noto, la cosa che mi irrita di più è il ghosting, per fortuna gli ultimi giochi (vedi Atomic Heart) hanno l'ultima versione e si nota meno, ma comunque si nota. Tuttavia è un sacrificio accettabile per stare sopra i 100FPS in tutti i giochi tranne alcuni
C'è una bella analisi qualitativa sulla grafica tra DLSS vs nativa di HU su parecchi giochi. Ti lascio il link al minuto esatto dei riassuntone:

--- i due messaggi sono stati uniti ---
Per upgrade sensato intendo, secondo il mio metro di misura, un almeno +60% di performance gen to gen, per questo sono passato dalla 3080 alla 4090, perché ho fatto un +2x in raster, e fino ad un x4 in RT, consumando anche meno.
Esattamente. Razionalmente anche io avrei dovuto fermarmi a sto giro ma poi Nvidia mi butta fuori la 4090 (ed alla prossima gen imho sarà difficile fare un così grande salto prestazionale visto che il nuovo processo produttivo TSMC non avrà +1000mhz di clock da sbatterci sopra) ed il non pronosticato 5800X3D che mi toglie il 99% dei casini da Flight Simulator ed allora non ho saputo resistere.
 
Ultima modifica:
QUALI TONI, SCUSAMI?
Io comunque non bado a queste cose, per me inutili, dato che dalla mia parte c'è solamente ironia e simpatia, il professorone viene anche detto da ALDO in tre uomini ed una gamba, ed è totalmente IRONICO e Simpatico, con un cenno di verità, perché no, non lo nego, c'è un gran cenno di verità nelle mie parole, ma restano simpatiche, non c'è malizia e nessun altra forma di ''ostilità''.
Poi, comunque, non sono il solo a fare le BATTUTINE, che a me piacciono anche <3
--- i due messaggi sono stati uniti ---

Infatti non c'è alcun flame, ma spesso, la verità è dura da digerire.
cio che non da fastidio a te non è detto che a qualcun altro possa dare fastidio.
Qualcuno soffre il solletico ed è un fastidio, qualcun altro non lo soffre proprio, ma non per quello puoi fargli il solletico come ti pare.
Resto in attesa comunque di un riscontro dei super mod
 
Forse io la penso più nell'ottica di: Prendo una 4090 oggi e per i prossimi 7/8 anni non la faccio uscire dal PC. Almeno io la penso cosi. Ovvio che al giorno d'OGGI è una GPU overpawah per quella res (come lo era la 3080Ti 2/3 anni fa ma che ora comincia un attimino a mostrare il fianco in quella res) io però penso: mi prendo la scheda TOP di gamma, la ficco nel PC, vado nelle impostazioni e ficco ogni settaggio possibile ed immaginabile al massimo e per i prossimi 8 anni non ne voglio più sapere di schede video perchè starò sempre sopra i 60FPS MINIMO. Una 4090 è sprecata OGGI per il 1440p ma domani? Domani magari faticherà anche lei. Tutte ste cose mi erano state dette per la 3080TI che ho bellamente (e per fortuna per me aggiungerei) ingorato. Ho sempre agito così, prendo la GPU e la tengo per anni e se ne ho bisogno al massimo cambio CPU e MB
Intanto sbagli a fare quel ragionamento, perché la longevità di una gpu non è data solo dalla potenza bruta ma anche da altri fattori. La gtx 780ti era un mostro di gpu, ma che è invecchiata velocemente, più del normale, perché gli mancavano dei fattori importanti che vanno oltre la potenza bruta. Intanto non aveva il supporto alle directx 12, non supportava correttamente vulkan ( qui dava il peggio ), aveva solo 3GB di vram e l'architettura nonostante era veloce a fare calcoli con numeri interi, faceva fatica con quelli in virgola mobile. Questo ha reso tale gpu obsoleta nel giro di 2/3 anni.
Le rtx 2000 e 3000 sono fortunate ad avaere un completo supporto delle directx 12, supporto al dlss2 ( fondamentale per invecchiare bene ) supporto ray tracing ecc. Appena escono le directx 13 o qualsiasi altra tecnologia che andrà a rivoluzionare la renderizzazione grafica, non preoccuparti che anche la rtx 4090 diventerà un ferma carte.

Ora mi devi spiegare come è possibile che una rtx 3080ti faccia fatica in 1440p ?
Io gioco in 3440x1440p con una gtx 3080 12GB che è un 5% più lenta della Ti, e non ho mai avuto problemi.

La rtx 4090 non è la classica top di gamma, la rtx 4090 è una gpu per il 4K o per lavori professionali seri, una gpu da 2 mile euro e tali soldi non sono e non saranno mai giustificati per il gaming.
Ti auguro una buona guarigione dalla sindrome
 
Ultima modifica:
Me ne frega poco delle nuove tecnologie, sopratutto del DLSS che anche impostato in "qualità" a me sembra sempre peggiorare la resa visiva. Piuttosto aspetto 7/8 anni e prendo una futura RTX10xxx con le ultime tecnologie piuttosto che ogni 2 anni rivendere la GPU vecchia e metterci altri 300/500€ per prendermi la top di gamma nuova (con alimentatore con nuovo standard annesso). Alla fine ho speso 1100€ 2 anni fa e li rispenderò tra 8 anni ammortizzando la spesa. Anche perchè una 3080Ti ora come ora la posso vendere a quanto? tra i 600 e gli 800€? una 4080 quanto costa? 1300€? dovrei aggiungerci 400€ più il costo di un ali nuovo con il nuovo standard (perchè col cavolo che uso gli adattatori). Arrotondiamo a una spesa totale di 550€. Praticamente sono già a metà della spesa di una ipotetica futura GPU che uscirà tra 7 anni. Se dovessi ripetere sta manfrina ad ogni gen arriverei a spendere 2000 e passa in 7 anni. Piuttosto mi sto fermo e mi godo ciò che posso e se dovrò scendere a compromessi lo farò tra qualche anno quando i giochi maxati mi andranno a meno di 80 FPS con il DLSS a qualità. Non dico che il mio ragionamento sia migliore del vostro, come il vostre non è migliore del mio. C'è chi non si può permettere di combiare gpu ad ogni gen e ce chi può e c'è chi potrebbe permetterselo ma non lo reputa necessario. Sono tutti ragionamenti validi che variano da persona a persona, non esiste il "è un ragioanemnto che poteva funzionare qualche hanno fa", esiste il "il tuo è un ragioanemnto valido ma io non lo condivido".
Non mi sono spiegato bene, il mio ragionamento non è cambiare scheda ad ogni gen, quella è una scelta personale di ognuno di noi, il mio ragionamento è di prendere una gpu utile al tuo utilizzo e non sovradimensionata pensando erroneamente che ciò ti aiuti in futuro. Prendi una 3090 rispetto ad una 3080, in 1440p la 3080 penso che ora dopo qualche anno sulle spalle perda rispetto alla 3090 più di quanto non perdeva al lancio? No. Inoltre ora una 3090 scheda del costo di 1300€ se l’hai presa in tempi buoni va meno rispetto ad una 4070Ti che è una scheda del costo di 900€ e che dovrebbe stare a 700€. Quando si sceglie una scheda secondo il mio pensiero budget permettendo bisogna individuare la risoluzione e poi puntare la scheda che riesce a gestire bene quella risoluzione.
 
Qualcuno soffre il solletico ed è un fastidio, qualcun altro non lo soffre proprio, ma non per quello puoi fargli il solletico come ti pare.
Con tutto il rispetto, perdonami, ma è un esempio senza alcun senso.
Se fosse così, non potremmo proprio scrivere nulla :)
Ti faccio un esempio, ora che ti ho scritto che hai fatto un esempio senza alcun senso, sicuramente ti ha dato fastidio leggerlo, ma non per questo è FLAME ;)

@Dradkol la rtx 4090 è una gpu per il 4K
E chi lo dice? non esiste un'accezione generale, che una data gpu è per una data risoluzione, altrimenti poi facciamo comprare agli utenti 3070 per il 1440p e rtx 3080 per il 2160p, che è assolutamente una roba che non ha senso oggi, così come non ce l'aveva due anni fa.
Se io voglio sfruttare un monitor ad alto refresh(fino a 180Hz) a 1440p, negli ultimi giochi con RT o “PT”, secondo te, prendo una 4080 o una 4090?
 
Ultima modifica:
Dici al posto del 3700x o del 5900x? Vediamo, se lo troverò usato sui 150, ci faccio un pensierino.
No un 5900X no perché lo pagheresti di più e non è una cpu da gaming. Punta al 5800X3D sempre con la dovuta calma e quando ti si presenta l’occasione con la consapevolezza che in 4K il 3700X regge ma con il 5800X3D sicuramente tiri in tutto e per tutto la scheda.😉
 
Con tutto il rispetto, perdonami, ma è un esempio senza alcun senso.
Se fosse così, non potremmo proprio scrivere nulla :)
Ti faccio un esempio, ora che ti ho scritto che hai fatto un esempio senza alcun senso, sicuramente ti ha dato fastidio leggerlo, ma non per questo è FLAME ;)


E chi lo dice? non esiste un'accezione generale, che una data gpu è per una data risoluzione, altrimenti poi facciamo comprare agli utenti 3070 per il 1440p e rtx 3080 per il 2160p, che è assolutamente una roba che non ha senso oggi, così come non ce l'aveva due anni fa.
Se io voglio sfruttare un monitor ad alto refresh(fino a 180Hz) a 1440p, negli ultimi giochi con RT o PT, secondo te, prendo una 4080 o una 4090?
Ripeto che puoi fare il SIMPATICONE, ma non a tutti la tua SIMPATIA viene vista come tale, altre volte viene vista in altro modo.
Poi chi vuol capire capisca, io devo lavorare non ho altro tempo da dedicare alla tua fantomatica "SIMPATIA".
 
Con tutto il rispetto, perdonami, ma è un esempio senza alcun senso.
Se fosse così, non potremmo proprio scrivere nulla :)
Ti faccio un esempio, ora che ti ho scritto che hai fatto un esempio senza alcun senso, sicuramente ti ha dato fastidio leggerlo, ma non per questo è FLAME ;)


E chi lo dice? non esiste un'accezione generale, che una data gpu è per una data risoluzione, altrimenti poi facciamo comprare agli utenti 3070 per il 1440p e rtx 3080 per il 2160p, che è assolutamente una roba che non ha senso oggi, così come non ce l'aveva due anni fa.
Se io voglio sfruttare un monitor ad alto refresh(fino a 180Hz) a 1440p, negli ultimi giochi con RT o PT, secondo te, prendo una 4080 o una 4090?
Prendi una 4080 perché se vuoi fare 180 fps in titoli che hanno RT praticamente sono titoli story driven non li farai mai perché probabilmente per quei giochi gli stessi motori di gioco non sono ottimizzati per fare tutti quei frame in un titolo di storia.😅
 
E chi lo dice? non esiste un'accezione generale, che una data gpu è per una data risoluzione, altrimenti poi facciamo comprare agli utenti 3070 per il 1440p e rtx 3080 per il 2160p, che è assolutamente una roba che non ha senso oggi, così come non ce l'aveva due anni fa.
Se io voglio sfruttare un monitor ad alto refresh(fino a 180Hz) a 1440p, negli ultimi giochi con RT o PT, secondo te, prendo una 4080 o una 4090?
Guarda se ti aspetti una risposta seria da parte mia penso che rimarrai deluso. Con te non si può ragionare e tale affermazione non è un singolo parere isolato, ma il parere di quasi tutto il forum.
Continua ad affermare le tue cose, tanto chi ha un minimo di conoscenza Hardware&Software riconoscerà al volo la tua immensa ignoranza in materia.
 
Guarda se ti aspetti una risposta seria da parte mia penso che rimarrai deluso. Con te non si può ragionare e tale affermazione non è un singolo parere isolato, ma il parere di quasi tutto il forum.
Continua ad affermare le tue cose, tanto chi ha un minimo di conoscenza Hardware&Software riconoscerà al volo la tua immensa ignoranza in materia.
Rispondi a questo però:
Se io voglio sfruttare un monitor ad alto refresh(fino a 180Hz) a 1440p, negli ultimi giochi con RT o “PT”, secondo te, prendo una 4080 o una 4090?
 
Rispondi a questo però:
Se io voglio sfruttare un monitor ad alto refresh(fino a 180Hz) a 1440p, negli ultimi giochi con RT o “PT”, secondo te, prendo una 4080 o una 4090?
Ti ho appena risposto io sopra, la 4080 perché quello che chiedi tu è praticamente una cosa impossibile da realizzare, i motori grafici di certi giochi non sono ottimizzati per tutti quegli fps quindi non ci arriverai mai nemmeno se metti la miglior cpu esistente con la miglior gpu. Ti faccio un esempio per farti capire cosa stai chiedendo, tu hai una supercar velocissima ma vorresti vincere delle gare di sterrato! Secondo te in una gara di sterrato serve la supercar o un’ottima macchina da relly? Eppure la supercar ha molti più cavalli delle macchine da relly come mai li non vince? Perché non è la sua categoria. Stessa cosa con la 4090 che è una scheda per 4K, la metti in 1440p? Bene una 4080 andrà praticamente meglio perché perderà pochi fps rispetto alla differenza di potenza ma costa molto molto in meno.
 
Rispondi a questo però:
Se io voglio sfruttare un monitor ad alto refresh(fino a 180Hz) a 1440p, negli ultimi giochi con RT o “PT”, secondo te, prendo una 4080 o una 4090?
Nessuna delle due, rimango alla finestra perchè gli ultimi giochi sono veramente programmati da schifo. Attendo patch correttive e generazioni di schede video migliori. Comunque per il 1440p la perfezione è la 4070Ti, prezzo a parte.
 
Rispondi a questo però:
Se io voglio sfruttare un monitor ad alto refresh(fino a 180Hz) a 1440p, negli ultimi giochi con RT o “PT”, secondo te, prendo una 4080 o una 4090?
Ok rispondo.
Intanto i giochi che beneficiano di un alto refresh rate come appunto 180hz, da te citati, sono giochi competitivi. Tu attivi il ray tracing su fortnite, battlefield, Cod ?? Se la risposta è si, complimenti sei un genio.

Il resto dei giochi che supportano il ray tracing sono giochi story driven ( esempio Cyberpunk 2077, Control ecc ) o giochi particolari come Minecraft ecc, in questi giochi fare 180 fps non ha senso, NON è una opinione personale, i consumi aumentano, l'usura del componente aumenta e il beneficio a livello di gameplay e pari a zero, poiché con 120fps si avrebbe un esperienza ottimale come la si può avere con 180fps ma riducendo il carico e lo sforzo sui componenti.
Poi se TU hai problemi, e sottolineo problemi, a giocare a 120hz perché la reputi una frequenza di aggiornamento per barboni, quello è un tuo problema, UN TUO PROBLEMA!

Poi va valutato se attivare il ray tracing ha benefici grafici tali da giustificare il crollo del frame rate, SPOILER, nel 80% dei casi NO!
Prendiamo come esempio Hogwards Legeacy ,Resident evil 4 Remake, Battlefield, i vari cod, Resident evil Village ecc l'attivazione del ray tracing e i benefici grafici che ne conseguono, non solo non giustificano la perdita dei frame ma oserei dire anche inutili.


Infine vorrei affermare che, io penso, anzi sono convinto che tu abbia dei problemi.
Tu giochi con una rtx 4090 in 2560x1440p, metti tutto al massimo sempre e comunque, anche se scopri che un determinato settaggio grafico e rotto o inutile, tu devi per forza leggere "Ultra", "Max", altrimenti piangi e corri a scrivere che la tua gpu/cpu non sono adatte a tale risoluzione. Infine come ciliegina sulla torta, attivi il DLDSR a x20 per non so quale diavolo di ragione.
Sei una barzelletta, ti stai rendendo ridicolo da non so quanti mesi e se in un primo momento mi potevi sembrare divertente, ora devo ammettere che sono stufo, anche perché gente ignorante in materia, leggendo le tue cazzate, potrebbe anche darti retta.
Questa sarà l'ultima volta che rispondo seriamente ad un tuo commento.
 
Rispondi a questo però:
Se io voglio sfruttare un monitor ad alto refresh(fino a 180Hz) a 1440p, negli ultimi giochi con RT o “PT”, secondo te, prendo una 4080 o una 4090?
a 1440p una 4080 semplicemente perchè in quella risoluzione la scheda scala male e lo dimostrano tutti i test possibili immaginabili

Te poi puoi anche preferire una 4090, ma almeno per ora sarà uno spreco in quella risoluzione e lo si può vedere in tutti i test su qualsiasi sito al mondo

 
Pubblicità
Pubblicità
Indietro
Top