jesse83
Utente Èlite
- Messaggi
- 6,250
- Reazioni
- 5,047
- Punteggio
- 176
No sul K2Giochi sul monte Everest? XD
--- i due messaggi sono stati uniti ---
Giochi sul monte Everest? XD
Ultima modifica:
Segui il video qui sotto per vedere come installare il nostro sito come web app sulla tua schermata principale.
Nota: Questa funzionalità potrebbe non essere disponibile in alcuni browser.
Pubblicità
No sul K2Giochi sul monte Everest? XD
Giochi sul monte Everest? XD
queste si che sono temp da VERI UOMINI altro che quel forno di 4090
Eh no, rileggi i miei post se devi fare lo spiritoso. Da novembre 2020 sostengo che gli 8 GB della 3070 erano pochi. Devo incollarti il post o lo trovi da solo ?@Max(IT) ma come per oltre 250 pagine di questo post hai sostenuto che la quantità di memoria non fosse una questione così imperante e adesso il "problema" della 4060 TI invece è proprio quello? La 4060 TI ha una potenza equivalente ad una 4030 quindi 8GB sono più che sufficienti visto che è una scheda video sufficiente per il 720p ... questo su giochi estremamente ottimizzati, beninteso, perchè con Cyberpunk può girare al massimo al massimo in 480p, disattivando il ray-tracing e usando il DLSS3 ovviamente.
Non oso immaginare quale schifenza sarà la 4060 liscia, speriamo avrà la potenza sufficiente almeno per gestire un orologio digitale con le cifre fatte di LED a 7 segmenti
Visualizza allegato 458414
Dopo la recente tempesta sulle 3070 io credo che cambieranno i piani almeno della Ti.ma no, non ci sperare... :D
sia la 4060 liscia che la 4060Ti reference board avranno 8GB (GDDR6 lisce non le 6X), in ogni caso tempo che mi arriva la scheda (uscirà prima la AD106) e ti saprò dire, tanto ormai manca poco... :asd:
Purtroppo non è così Crime, alcuni giochi in nativo li regge bene a 1440p tutto maxato con Rt, mentre a 2160p No, poi, sempre a 1440p la gpu consuma una cavolata e non smetterò mai di dire che l’alto refresh rate è fondamentale.
… e direi che non è il tuo casoLa 4090 è una gpu per il 2160p, ma che ti permette di godere come un cavallo a 1440p, e questo è tutto.
Guarda, Dying light2 con frame cap e conseguente riduzione del gpu usage, guarda i consumi(anche 180W), ragazzi l’hardware va compreso a fondo :
Nel suo caso decisamente si…240hz, tipo su The Witcher 3 giusto ? O magari su Re4 remake ?
Porca la miseria, il marketing vi ha proprio fott.. il cervello.
Fondamentali i 240 Hz su TW3 o RDR2Nah, non è così…
1440p@165Hz o 1440p@240Hz, ci vogliono gpu potenti per poterlo sfruttare, e ti assicuro che giocare a quel refresh rate cambia le carte in tavole, è tutto molto più fluido che sembra di galleggiare nel frame.
Non su tutti i giochi garantiscono un alto refresh…
Praticamente si prende una scheda video da 4K, la sottoutilizza e poi tutto felice dice che consuma poco.In questo Screen la GPU è occupata al 50%.
Praticamente non sta facendo nulla.
Dire che possa essere limitata in 2160p e che forse in alcuni casi convenga scalare a 1440p (perchè questo è ciò che capisco dal tuo messaggio) per me è follia pura.
ma che dici max quelli sono giochi che sono stati programati per avere minimo 360 fps lo sanno tuttiFondamentali i 240 Hz su TW3 o RDR2![]()
I tuoi screenshot nel 90% dei casi dimostrano il contrario di quanto vorresti direNah, non per criticare assolutamente, non è nel mio essere, ma di cose che non stanno né in cielo e né in terra qui ne leggo tante :)
I miei screen confermano il tutto, cb2077 con overdrive alto frame rate e 260w, così per tutti gli altri giochi, finalmente riesco a coprire tutti gli hZ del monitor in quei giochi non cpu bound, e l’esperienza è totalmente un’altra cosa.
Sono passato da 60Hz a 120Hz a 165Hz, e la differenza fra ognuno di loro c’è e non è trascurabile, in merito al 240Hz non posso esprimermi, non ce l’ho e NON DO GIUDIZIO.
Se uno compra la scheda sbagliata per il 1440P, ecco il risultatoJedi Survivor:
Gpu Usage 33%, la 4090 praticamente è a spasso, sembra quasi più un emulatore per l'uso intenso che fa sulla cpu.
Una assenza totale di ottimizzazione, come gli viene in mente di rilasciare giochi del genere, mah.
![]()
Dopo la recente tempesta sulle 3070 io credo che cambieranno i piani almeno della Ti.
ma è una scheda per veri uomini
Certo anche per vere donne!non necessariamente dai, va benissimo anche una donnicciola, l'importante è che abbia il grano...
GPU USAGE 42% CRIME, stai usando 114W ci credo che le temperature sono così basse.
Peccato che l'utente ha sbagliato lettura e quello è il Power Usage e non il Gpu usage, dai in settimana organizziamo così vi insegno come fare una lettura approfondità dei dati <3Fondamentali i 240 Hz su TW3 o RDR2
Praticamente si prende una scheda video da 4K, la sottoutilizza e poi tutto felice dice che consuma poco.
Come guidare un ferrarino a 70 km/h e poi dire “beh non consuma molto più di una utilitaria”.
Non è il mio screen, ma di un utente su twitter abbastanza conosciuto, sembrerebbe che Jedi Survivor sia super overhead per nVidia(gpu usage 30%), dato che su una 7900xtx il gpu usage è massimo ed anche gli fps quasi doppi, spero che nVidia risolva presto questo overhead e che i DEVS la smettano, attendiamo i test...I tuoi screenshot nel 90% dei casi dimostrano il contrario di quanto vorresti dire
Se uno compra la scheda sbagliata per il 1440P, ecco il risultato
ancora co sto bottleneck la vedi la barra del frame time che è piatta, ma non capisci nemmeno quando uno ti prende in giro?GPU USAGE 42% CRIME, stai usando 114W ci credo che le temperature sono così basse.
Mamma mia ragazziiiiiiiiiiiiiiiiiiiiiii, facciamo così in settimana organizzate un meeting che vi insegno ad interpretare i risultati in OSD, vi voglio bene, per questo lo farò <3
Comunque il GPU usage è bassissimo(42%), hai messoo un cap lock agli fps? perché altrimenti hai un bottleneck pazzesco.
--- i due messaggi sono stati uniti ---
Peccato che l'utente ha sbagliato lettura e quello è il Power Usage e non il Gpu usage, dai in settimana organizziamo così vi insegno come fare una lettura approfondità dei dati <3
--- i due messaggi sono stati uniti ---
Non è il mio screen, ma di un utente su twitter abbastanza conosciuto, sembrerebbe che Jedi Survivor sia super overhead per nVidia(gpu usage 30%), dato che su una 7900xtx il gpu usage è massimo ed anche gli fps quasi doppi, spero che nVidia risolva presto questo overhead e che i DEVS la smettano, attendiamo i test...