UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
YouTube è fonte di grande disinformazione, ma qualche video buono c'è, ed i giocatori bravi ti fanno il mazzo anche con un monitor da 60 Hz.
quoto ma poi oltre un certo refresh non esiste più un vantaggio concreto per nulla, esiste il limite umano dle riflesso nervoso, non siamo macchine....
 
Il problema è che la gente pensa che più fps fanno in game e più la grafica migliora 🤣
Ma io credo che sia proprio un fattore mentale, un celodurismo personale dove ci si sente soddisfatti di avere qualcosa di potente nel pc.. poi sia chiaro, se uno si sente contento così chi sono io per dirgli di non farlo se non si inguaia nella spesa, però è verissimo, 200 fps non servono a niente, quando stai sui 60 per la stragrande maggioranza dei titoli giochi benissimo, per i competitivi magari se ne fai un pò di più meglio ma qui non ne entro in merito in quanto non mi interessano! Poi certo, sta parlando proprio quello che si è cambiato la 2080 per la 4070ti, quindi predico bene e razzolo male.. 😆
 
Il problema è che la gente pensa che più fps fanno in game e più la grafica migliora 🤣
Ci sono alcuni utenti che pensano che avere più fps in game hanno un vantaggio al livello competitivo, questo è vero ma fino ad un certo punto.

In primis come dice max devi essere skillato, uno senza mani resterà senza mani a qualsiasi refersh, poi sopra i 144hz devi essere davvero un pro per ottenere dei vantaggi e sopra i 240hz non esistono più per nessuno

Diciamo che

Tutti hannio un vantaggio da 60 a 144hz sia in termini di fluidita visiva che di altro

Sopra i 144hz pochissimi riescono a sfruttare il vantaggio che da un maggior refresh per farlo devi essere davvero allenato e oltre non ha nemmeno più senso parlarne poichè nessuno è in grado di trarre un qualsivoglia vantaggio
 
A plague tale con Rt su ombre(ultimo aggiornamento, prima non c’era),tutto maxato a 1440p, quando la Vram utilizzata(lascia stare il concetto di allocata o meno) arriva a 9GB comincia a fare stuttering mostruosi, al di sotto no.

no, tra allocata ed utilizzata ci passa un mare di differenza. A 1440P bastano gli 8 GB e i 10 GB sono più che sufficienti anche per gli sviluppi futuri.
Hogwarts Legacy, insegna ad esempio, come la Vram della 3080 sia “risicata”, sai come si chiama in altri termini questo?
Obsolescenza Programmata, effettuata da nVidia stessa, sia chiaro.

Hogwarts Legacy è basato su un vecchio engine e l'unico motivo per cui gira da schifo anche con una 4090 è che è programmato con i piedi. Si spera che risolvano nel tempo.
Nvidia non abbonda con la VRAM, questo lo sappiamo da sempre (specie sulla 3070 poteva fare meglio), ma questo è un problema in 4K, non certo a 1440P.
Le mie principali ragioni per cui mi sono tolto la 3080 sono state:
-La poca Vram per gestire il Rt a 1440p.
-L’assenza del dlss3(curiosità) unito alla necessità di avere più frame con la massima qualità d’immagine possibile.
la ragione per cui te "la sei tolta" è che hai soldi da sbattere via, proprio come ho fatto io (beh, io in realtà avevo un motivo contingente di passare la 3080 a mio figlio... ma alla fine è solo per sfizio).
Ora ti stai sforzando di giustificare a te stesso e noi tutti la "necessità" dell'upgrade, ma non sta ne in cielo ne in terra.
Hai cambiato perché avevi i soldi e la voglia.
Amen, non c'è nulla di male.

Il DLSS3 è marketing (potrebbero implementarlo anche sulle serie 30) e la VRAM a 1440P ti bastava tranquillamente. In Hogwarts legacy se non usi Ultra Texture il consumo diminuisce parecchio.
 
Ci sono alcuni utenti che pensano che avere più fps in game hanno un vantaggio al livello competitivo, questo è vero ma fino ad un certo punto.

In primis come dice max devi essere skillato, uno senza mani resterà senza mani a qualsiasi refersh, poi sopra i 144hz devi essere davvero un pro per ottenere dei vantaggi e sopra i 240hz non esistono più per nessuno
In realtà la percezione visiva dell'occhio umano è molto più bassa dei 144hz, chi ottiene vantaggi a quel refresh rate li ottiene graxie alle mani
 
Buongiorno avrei un paio di domande inerenti ad un ipotetica rtx 4070 ti:

1) in base alla mia attuale build avrei un boost prestazionale tale da giustificare la spesa o mi converrebbe rimanere così fino alla prossima gen?

2) se la prima domanda è positiva avrei problemi a collegare la prolunga rgb che ho adesso per mantenere l'estetica attuale o conviene eliminarla?

Inviato dal mio SM-G991B utilizzando Tapatalk
con una 4070 Ti hai un 30/32% di aumento di prestazioni, con consumo anche inferiore. Non è la fine del mondo, ma se il budget per cambiare ce l'hai, io dico che è fattibile.
 
E' il discorso che ho fatto anche io, per la distanza che ho dal monitor un 32" è troppo, tra l'altro sono così soddisfatto della qualità del pannello del mio monitor che mi piangerebbe il cuore cambiarlo, ha una qualità del colore che nessun altro mio monitor IPS si avvicina lontanamente ma al punto da rendere i giochi più belli, molto più belli, quando li gioco su altri monitor fatico vedo un dislivello mostruoso estetico, è un pannello della madonna.
Va beh, per il prezzo in cui l'hai pagata era chiaro che la scelta doveva andare su quella, pensiamo positivo, hai una scheda che a 1440p ci starà ancor di più prima di perdere colpi! 😆
Per il resto? Due parole in più sulla scheda? Come lo stai trovando il DLSS3 ad esempio? Prova su HL a mettere DLSS OFF (un mattone pauroso, andrebbe a 35 fps sulla 4070ti, certo con cpu limited però), poi il DLSS normale a qualità e alla fine il DLSS3, sono curioso i tuoi valori.

Tra l'altro su HL dall'ultima patch hanno fatto in modo che quando usi il DLSS3 tu possa disattivare il DLSS normale, devo ancora entrare nell'ottica di cosa cambia onestamente e perchè convenga disabilitare uno e mantenere l'altro, forse per non deteriorare ulteriormente l'immagine o per alleggerire il carico di lavoro, devo capire meglio!

Un altro atroce mattone che ho scoperto in questi giorni è la versione DX12 con ray tracing attivo di Martha is Dead, a 1440p faccio una settantina di fps con DLSS a qualità e certe volte cala sensibilmente, se avessi avuto la 2080 sono sicuro avrei dovuto disattivarlo. Se ce l'hai prova a vedere che prestazioni hai!

Inoltre stai trovando problemi di alta latenza quando attivi sia DLSS3 che Reflex?
non ho molto tempo per fare test in questo momento, e non ho alcun gioco con DLSS attivabile ad esempio.
Con calma valuterò tutto.

Non ho comprato HL e non lo farò finché non lo sistemano, come feci del resto con Cyberpunk.
 
In realtà la percezione visiva dell'occhio umano è molto più bassa dei 144hz, chi ottiene vantaggi a quel refresh rate li ottiene graxie alle mani
no no credimi un uomo riesce a vedere molto più dei 144frame al secondo una persona allenata ne riesce a percepire anche un numero di frame molto più elevato (sopra i 200), si deve dfare un discorso molto più complesso che riguarda la percezione

In primis non ha senso fare un paragone simile, la nostra percezione non è "digitale"

Considera questo, un giocatore skillato e parliamo di una persona assolutamente allenata guidoni uno che gioca solo a giochi competitivi a tornei e ecc potrebbe avere un vantaggio nei 240hz che non è in termini di fluidità ma è un vantaggio che viene a concretizzarsi in alcune situazioni davvero limite, immagina che ne so un colp[o con il fucile da cecchino sparato a lunga distanza verso uno che corre saltando attraverso una feritoia

Se sei davvero un pro e sei allenatissimo con i 240 hz hai maggiore possibilità di "beccarlo" e siamo proprio nell'ambito delle probabilità
 
Ultima modifica:
Consumano meno 🤣🤣🤣 modalità scimmia : ON
guarda a parità di gioco tra la mia 3080 in undervolt e la 4080 a stock ho perso 50W almeno... sul consumano meno è verissimo. Che poi questo sia un buon motivo o meno per un cambio è da vedersi...

Il problema è che la gente pensa che più fps fanno in game e più la grafica migliora 🤣
peggio: pensano che diventano più bravi 🫤
 
no, tra allocata ed utilizzata ci passa un mare di differenza. A 1440P bastano gli 8 GB e i 10 GB sono più che sufficienti anche per gli sviluppi futuri.


Hogwarts Legacy è basato su un vecchio engine e l'unico motivo per cui gira da schifo anche con una 4090 è che è programmato con i piedi. Si spera che risolvano nel tempo.
Nvidia non abbonda con la VRAM, questo lo sappiamo da sempre (specie sulla 3070 poteva fare meglio), ma questo è un problema in 4K, non certo a 1440P.

la ragione per cui te "la sei tolta" è che hai soldi da sbattere via, proprio come ho fatto io (beh, io in realtà avevo un motivo contingente di passare la 3080 a mio figlio... ma alla fine è solo per sfizio).
Ora ti stai sforzando di giustificare a te stesso e noi tutti la "necessità" dell'upgrade, ma non sta ne in cielo ne in terra.
Hai cambiato perché avevi i soldi e la voglia.
Amen, non c'è nulla di male.

Il DLSS3 è marketing (potrebbero implementarlo anche sulle serie 30) e la VRAM a 1440P ti bastava tranquillamente. In Hogwarts legacy se non usi Ultra Texture il consumo diminuisce parecchio.
Io giustificarmi??? ahahahahahh
Non mi giustifico davanti a nessuno :)
Avevo voglia di cambiare tutto qui, ma soprattutto necessitavo di una GPU più potente per il RT, e l'unica valida in grado di darmi un bel salto prestazionale era appunto la 4090.
Apro una parentesi, i 10GB della 3080 sono insufficienti per gestire i prossimi giochi a 1440p con RT maxato, in cinque mesi due giochi lo hanno dimostrato(HL ed A Plague Tale Requiem in RT), ma ci risentiremo sicuramente su questa tematica, ora annotate questo commento ;)
 
Io mi ricordo ancora, perchè m'è rimasta impressa, su non so quale video ho fatto un commento, cosa che faccio molto di rado perchè non sopporto la facilità d'insulto e di flame che c'è nei commenti di Youtube, ai periodi che era appena stata rilasciata la 3080, dicendo che con la 2080 mi girava bene non so quale gioco a 1440p.. è arrivato un tipo dicendomi che è impossibile che la 2080 potesse gestire un gioco a 1440p... mi sono cadute talmente le braccia che non gli ho nemmeno risposto, se l'avessi fatto finiva che avrei perso la pazienza, questa è una follia, dal momento stesso che esce una nuova serie le fasce alte della vecchia per molti diventano automaticamente ferri vecchi da gettare, completamente incapaci di gestire risoluzioni per cui sono state prodotte, al lancio della serie nuova tra l'altro, capirei anni dopo! Mi sale il nervoso solo a ricordarlo! C'è una tale disinformazione nei social e su Youtube da far accapponare la pelle! Ma lo vedevo pure tra le serie normali e super, con l'uscita della 2080 super le lisce per molti erano automaticamente sterco, per 5/6 fps di differenza! Dio che nervoso, solo a pensarci! 🤬
 
Ultima modifica:
0GB della 3080 sono insufficienti per gestire i prossimi giochi a 1440p con RT maxato, in cinque mesi due giochi lo hanno dimostrato(HL ed A Plague Tale Requiem in RT), ma ci risentiremo sicuramente su questa tematica, ora annotate questo commento ;)

credimi questo è falso nessun gioco in 1440p necessita davvero di tanta vram non lo dico io lo dicono gli stessi sviluppatori degli stessi giochi

Che la scheda "alloca" il massimo della VRAM che hai disponibile è normale, non significa nulla!

L'unica cosa che dimostrano quei giochi è un pessimo lancio ed ottimizzazione al d1 e non ci sono solo quelli, perchè i problemi su quei giochi ci sono con tutte le schede grafiche, mentre come per magia su console sono molti di meno
 
guarda a parità di gioco tra la mia 3080 in undervolt e la 4080 a stock ho perso 50W almeno... sul consumano meno è verissimo. Che poi questo sia un buon motivo o meno per un cambio è da vedersi...
Il consumo minore è una scusa del subconscio generata dalla scimmia di avere la scheda video nuova, era palese dai 😁
 
Il consumo minore è una scusa del subconscio generata dalla scimmia di avere la scheda video nuova, era palese dai 😁
se uno ha i soldi da spendere è può ha tutti il diritto di comprare ciò che più lo soddisfa, ma non venitemi a raccontare che una 3080 non basta per giocare perchè rido da qui all'eternità
 
Pubblicità
Pubblicità
Indietro
Top