UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Le Ferrari vanno più veloci chiaro.

Il problema qui è un altro, se la tua autostrada porta al massimo 300 auto, adesso ne ha neanche 150, eppure per qualche motivo non riesce a portarne di più... Perché?


Forse ci sono processi male ottimizzati che seppur leggeri, impiegano un sacco di clock a completarsi. Quindi il core di turno sebbene impiegato a 20% ci mette comunque un sacco a completare il processo.

O forse ci sono processi del motore di gioco che devono aspettare altri processi per iniziare. Nessun core è usato a pieno ma semplicemente deve aspettare la fine di altri processi per iniziare il suo lavoro e quando arriva il suo turno può fare solo un processo perché gli altri aspettano quello che sta facendo...
te lo spiego io avets ci sono motori grafici che arrivano al limite e che nons frutteranno mai l'hardware o non sfruttano hardware di ultima generaizone

Il perchè è che chi sviluppa piazza un target ed è semplicissimo capirlo, poi entrano in ballo le risoluzioni

il DLSS fa reindirizzare a risoluzioni più basse quindi è normale che la scheda "lavori meno"

ovviamente hardware di ultimissima generazione riescono a : cacciare più frame" laddove quello precedente non vi riusciva ma è semplice forza bruta
 
Attenzione che con quel minimo a soli 22 fps il frame generation creerà problemi. Sotto i 50-60fps reali si ha tanto stuttering.
non è in frame generarion quello è con semp[lice dlss ma pure con la 3080 avevo minimi bassi su CP nel benck non mi ha creato mai problemi

Poi l'overide mode è un "anteprima tecnologica" non c4redo che sia ottimizzato ancora bene bene

Comunque testare più a fondo è solo un bench
 
@wulff73 ho capito da dove proviene quel minimo quando cambi impostazioni e fai partire per la prima volta il bench prima che inizia fa uno scattino che viene registrato

Ma se lo fai la seconda volta senza cambiare impostazioni non ci sta piu ed infatti ho questo
Cyberpunk 2077 Screenshot 2023.04.23 - 21.51.29.09.png

Probabilmente il cambiamento delle impostazioni influenza il bench che ho notato ha anche altri bug
 
Ultima modifica:
@wulff73 ho capito da dove proviene quel minimo quando cambi impostazioni e fai partire per la prima volta il bench prima che inizia fa uno scattino che viene registrato

Ma se lo fai la seconda volta senza cambiare impostazioni non ci sta piu ed infatti ho questo
Visualizza allegato 458287

Probabilmente il cambiamento delle impostazioni influenza il bench che ho notato ha anche altri bug
Certo un poco di variazione c'è ma senza guardare i miei fps medi e massimi, con una CPU diciamo abbastanza "recente" hai minimi molto più alti. Questo è il test con le tue impostazioni col mio 5800X3D:



La tua CPU in questo caso non gli sta dietro alla 4080 e quel minimo così ti potrebbe creare problemi anche con il frame generation (non lo dico per tirartela è che ci sono solo già passato con il 5950X). Per migliorare la situazione devi per forza scendere con le impostazioni del gioco...magari scegliendo le voci che impattano relativamente poco sulla qualità grafica ma che ti riescano a portare quei cavolo di minimi oltre i 60fps. Comunque nel gioco quando ti troverai in certe aree con tante personaggi e RT vedrai che i minimi purtroppo scenderanno ancora.
 
Certo un poco di variazione c'è ma senza guardare i miei fps medi e massimi, con una CPU diciamo abbastanza "recente" hai minimi molto più alti. Questo è il test con le tue impostazioni col mio 5800X3D:



La tua CPU in questo caso non gli sta dietro alla 4080 e quel minimo così ti potrebbe creare problemi anche con il frame generation (non lo dico per tirartela è che ci sono solo già passato con il 5950X). Per migliorare la situazione devi per forza scendere con le impostazioni del gioco...magari scegliendo le voci che impattano relativamente poco sulla qualità grafica ma che ti riescano a portare quei cavolo di minimi oltre i 60fps. Comunque nel gioco quando ti troverai in certe aree con tante personaggi e RT vedrai che i minimi purtroppo scenderanno ancora.
beh è ovvio che con una cpu migliore vai meglio la cambierò ma più in la 1200 euro non si smaltiscono in 2 giorni

Per ora mi accontento del 10700k poi se inizia a dare problemi vediamo aspetto la prossima gen intel

Post scriptum : poi per il processore ci vorranno minimo altri 6 mesi cosi con mia moglie


1682272663680.webp
 
Ultima modifica:
Speriamo bene con il 5900x e 4090. Non so con un 1600p e 2160p laxstoria cambi..però se Crime ha problemi, potrei averne anche io in proporzione
 
Se ad esempio, dai quel gioco in pasto ad un 13900k, ma anche ad un 13600k, invece del 47% di utilizzo della gpu, vedrai che ne so, magari l'80%, con coseguente aumento dei frame.
Si quello che dici ci sta 😉👍

Ti faccio un esempio pratico, è il primo che mi è venuto in mente, non sarà tecnicamente corretto, ma riassume il concetto.
Il core è la corsia di un'autostrada, tu hai due autostrade con dodici corsie(12 core) ciascuna, in una autostrada camminano solamente 300 Punto(% di utilizzo del core, dato dal volume delle auto) alla massima velocità(la velocità dell'auto è la capacità di processare i dati), mentre nell'altra autostrada, sempre a 12 corsie camminano 300 ferrari alla massima velocità.
Secondo te, quale delle due autostrade avrà una percorrenza più veloce? nonostante entrambe abbiano 12 corsie(12 cores) e lo stesso volume di auto(%di utilizzo)?
Nell'esempio sarebbe stato meglio dire che hai 12 autostrade (core) ognuna con 2 corsie (thread) ma ho capito lo stesso 😅

Si quello che dici ci sta tutto, in effetti hai ragione, ma come ho scritto prima, questo problema lo avresti anche con un 13900K spinto perchè poi il problema, oltre al clock, è anche che parallelizzare troppo diventa dispendioso. Nel senso che poi il collo di bottiglia diventa l'accesso alla memoria e la suddivisione stessa del lavoro fra i core. Comunque di frequenza non possono salire oltre una certa soglia, lo sappiamo dal Pentium 3 ormai, quindi non vedremo mai CPU a 10 GHz (ad esempio) 😣

Fra l'altro, a seconda dei giochi e ottimizzazioni, potresti incorrere nel bottleneck anche a 4K visto che la 4090 rimane comunque un mostro di potenza 😁
--- i due messaggi sono stati uniti ---
Nel caso specifico dell'esempio che hai screenshottato allora il problema lo causa il DLSS stesso, che a quanto pare utilizza la potenza della CPU, altrimenti non si spiega
 
Nel caso specifico dell'esempio che hai screenshottato allora il problema lo causa il DLSS stesso, che a quanto pare utilizza la potenza della CPU, altrimenti non si spiega
Che sappia io il DLSS utilizza i tensor core della scheda video, non la cpu. O mi sbaglio?

Comunque le corsie dell'autostrada sono più simili al bus PCIe che collega la cpu alla gpu secondo me. Il discorso è molto più complesso di come è stato presentato.
 
Pubblicità
Pubblicità
Indietro
Top