UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
@Max(IT) ma come per oltre 250 pagine di questo post hai sostenuto che la quantità di memoria non fosse una questione così imperante e adesso il "problema" della 4060 TI invece è proprio quello? La 4060 TI ha una potenza equivalente ad una 4030 quindi 8GB sono più che sufficienti visto che è una scheda video sufficiente per il 720p ... questo su giochi estremamente ottimizzati, beninteso, perchè con Cyberpunk può girare al massimo al massimo in 480p, disattivando il ray-tracing e usando il DLSS3 ovviamente.

Non oso immaginare quale schifenza sarà la 4060 liscia, speriamo avrà la potenza sufficiente almeno per gestire un orologio digitale con le cifre fatte di LED a 7 segmenti 🤦

Visualizza allegato 458414
Eh no, rileggi i miei post se devi fare lo spiritoso. Da novembre 2020 sostengo che gli 8 GB della 3070 erano pochi. Devo incollarti il post o lo trovi da solo ?
la 4060 Ti esce due anni e mezzo dopo, ed i 12 GB sono d’obbligo.
 
ma no, non ci sperare... :D

sia la 4060 liscia che la 4060Ti reference board avranno 8GB (GDDR6 lisce non le 6X), in ogni caso tempo che mi arriva la scheda (uscirà prima la AD106) e ti saprò dire, tanto ormai manca poco... :asd:
Dopo la recente tempesta sulle 3070 io credo che cambieranno i piani almeno della Ti.

Purtroppo non è così Crime, alcuni giochi in nativo li regge bene a 1440p tutto maxato con Rt, mentre a 2160p No, poi, sempre a 1440p la gpu consuma una cavolata e non smetterò mai di dire che l’alto refresh rate è fondamentale.

Puoi continuare a ripeterlo ma non diventa vero
La 4090 è una gpu per il 2160p, ma che ti permette di godere come un cavallo a 1440p, e questo è tutto.
Guarda, Dying light2 con frame cap e conseguente riduzione del gpu usage, guarda i consumi(anche 180W), ragazzi l’hardware va compreso a fondo :
… e direi che non è il tuo caso

240hz, tipo su The Witcher 3 giusto ? O magari su Re4 remake ?
Porca la miseria, il marketing vi ha proprio fott.. il cervello.
Nel suo caso decisamente si…
 
Nah, non è così…
1440p@165Hz o 1440p@240Hz, ci vogliono gpu potenti per poterlo sfruttare, e ti assicuro che giocare a quel refresh rate cambia le carte in tavole, è tutto molto più fluido che sembra di galleggiare nel frame.
Non su tutti i giochi garantiscono un alto refresh…
Fondamentali i 240 Hz su TW3 o RDR2 🤦🏻‍♂️

In questo Screen la GPU è occupata al 50%.

Praticamente non sta facendo nulla.

Dire che possa essere limitata in 2160p e che forse in alcuni casi convenga scalare a 1440p (perchè questo è ciò che capisco dal tuo messaggio) per me è follia pura.
Praticamente si prende una scheda video da 4K, la sottoutilizza e poi tutto felice dice che consuma poco.
Come guidare un ferrarino a 70 km/h e poi dire “beh non consuma molto più di una utilitaria”.
 
Fondamentali i 240 Hz su TW3 o RDR2 🤦🏻‍♂️
ma che dici max quelli sono giochi che sono stati programati per avere minimo 360 fps lo sanno tutti

240 è il minimo sindacale ci fanno i campionati di competitivo su the witcher 3 e RDR2, sotto i 160 fps non sei nessuno in quei giochi, altro che fortnite
 
Nah, non per criticare assolutamente, non è nel mio essere, ma di cose che non stanno né in cielo e né in terra qui ne leggo tante :)
I miei screen confermano il tutto, cb2077 con overdrive alto frame rate e 260w, così per tutti gli altri giochi, finalmente riesco a coprire tutti gli hZ del monitor in quei giochi non cpu bound, e l’esperienza è totalmente un’altra cosa.
Sono passato da 60Hz a 120Hz a 165Hz, e la differenza fra ognuno di loro c’è e non è trascurabile, in merito al 240Hz non posso esprimermi, non ce l’ho e NON DO GIUDIZIO.
I tuoi screenshot nel 90% dei casi dimostrano il contrario di quanto vorresti dire 😓

Jedi Survivor:
Gpu Usage 33%, la 4090 praticamente è a spasso, sembra quasi più un emulatore per l'uso intenso che fa sulla cpu.
Una assenza totale di ottimizzazione, come gli viene in mente di rilasciare giochi del genere, mah.
FuqEVUBXwCEMcr3
Se uno compra la scheda sbagliata per il 1440P, ecco il risultato
 
Sicuramente la 4090 e una scheda per il 4k, al massimo per un 21:9 a 1600p che in termini di impegno lavorativo per la Gpu è superiore. In effetti io l'ho presa per queste 2 risoluzioni, benché andava bene anvhe la 4080. Certo la 4090 andrà meglio su questi display
 
ecco temperature in UV della 4080]

altro che quel fornetto di 4090


GPU USAGE 42% CRIME, stai usando 114W ci credo che le temperature sono così basse.
Mamma mia ragazziiiiiiiiiiiiiiiiiiiiiii, facciamo così in settimana organizzate un meeting che vi insegno ad interpretare i risultati in OSD, vi voglio bene, per questo lo farò <3
Comunque il GPU usage è bassissimo(42%), hai messoo un cap lock agli fps? perché altrimenti hai un bottleneck pazzesco.
--- i due messaggi sono stati uniti ---
Fondamentali i 240 Hz su TW3 o RDR2 🤦🏻‍♂️


Praticamente si prende una scheda video da 4K, la sottoutilizza e poi tutto felice dice che consuma poco.
Come guidare un ferrarino a 70 km/h e poi dire “beh non consuma molto più di una utilitaria”.
Peccato che l'utente ha sbagliato lettura e quello è il Power Usage e non il Gpu usage, dai in settimana organizziamo così vi insegno come fare una lettura approfondità dei dati <3
--- i due messaggi sono stati uniti ---
I tuoi screenshot nel 90% dei casi dimostrano il contrario di quanto vorresti dire 😓


Se uno compra la scheda sbagliata per il 1440P, ecco il risultato
Non è il mio screen, ma di un utente su twitter abbastanza conosciuto, sembrerebbe che Jedi Survivor sia super overhead per nVidia(gpu usage 30%), dato che su una 7900xtx il gpu usage è massimo ed anche gli fps quasi doppi, spero che nVidia risolva presto questo overhead e che i DEVS la smettano, attendiamo i test...
 
Ultima modifica:
GPU USAGE 42% CRIME, stai usando 114W ci credo che le temperature sono così basse.
Mamma mia ragazziiiiiiiiiiiiiiiiiiiiiii, facciamo così in settimana organizzate un meeting che vi insegno ad interpretare i risultati in OSD, vi voglio bene, per questo lo farò <3
Comunque il GPU usage è bassissimo(42%), hai messoo un cap lock agli fps? perché altrimenti hai un bottleneck pazzesco.
--- i due messaggi sono stati uniti ---

Peccato che l'utente ha sbagliato lettura e quello è il Power Usage e non il Gpu usage, dai in settimana organizziamo così vi insegno come fare una lettura approfondità dei dati <3
--- i due messaggi sono stati uniti ---

Non è il mio screen, ma di un utente su twitter abbastanza conosciuto, sembrerebbe che Jedi Survivor sia super overhead per nVidia(gpu usage 30%), dato che su una 7900xtx il gpu usage è massimo ed anche gli fps quasi doppi, spero che nVidia risolva presto questo overhead e che i DEVS la smettano, attendiamo i test...
ancora co sto bottleneck la vedi la barra del frame time che è piatta, ma non capisci nemmeno quando uno ti prende in giro?

lo cpaici che a me in single player non frega un tubo di fare 2560 fps?
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top