UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Che sappia io il DLSS utilizza i tensor core della scheda video, non la cpu. O mi sbaglio?
si il DLSS non utilizza la CPu semplicemente facendo fare più frame la CPU viene stresstata di più perchè ha più frame da processare

questo pero non dovrebbe succedere o aleno succede in aprte con il DLSS3 in quanto il frame generation è un interpolazione che avviene direttamente lato GPU



Comunque le corsie dell'autostrada sono più simili al bus PCIe che collega la cpu alla gpu secondo me. Il discorso è molto più complesso di come è stato presentato.
si lo è è inutile ribadirlo
 
Ebbene signori, dopo averci fatto 3 run e più di 500 ore di gioco, ci sono ricascato di nuovo, che musiche e che luce, rigiocato così gli rende onore, un roba impressionante dal punto di vista grafico, ma soprattutto delle luci <3
Tu da solo di notte e sei potentissimo, con il tuo cavallo e le due spade, una per i mostri(argento) ed una per gli umani(acciaio), silenzioso, solitario e letale. <3
Non rende giustizia lo screen, non c'è profondità nell'immagine e neanche le musiche :(
 
Ebbene signori, dopo averci fatto 3 run e più di 500 ore di gioco, ci sono ricascato di nuovo, che musiche e che luce, rigiocato così gli rende onore, un roba impressionante dal punto di vista grafico, ma soprattutto delle luci <3
Tu da solo di notte e sei potentissimo, con il tuo cavallo e le due spade, una per i mostri(argento) ed una per gli umani(acciaio), silenzioso, solitario e letale. <3
Non rende giustizia lo screen, non c'è profondità nell'immagine e neanche le musiche :(
la co,pete edition è bella ma ha ancora alcuni bug
 
64341c08825d927ef96958e7ed2ea30b.jpg

Eh eh eh

Inviato dal mio Pixel 7 utilizzando Tapatalk
Adesso @crimescene volgiamo una guida all'undervolt come quello delle RTX 3000.😍
 
Certo un poco di variazione c'è ma senza guardare i miei fps medi e massimi, con una CPU diciamo abbastanza "recente" hai minimi molto più alti. Questo è il test con le tue impostazioni col mio 5800X3D:



La tua CPU in questo caso non gli sta dietro alla 4080 e quel minimo così ti potrebbe creare problemi anche con il frame generation (non lo dico per tirartela è che ci sono solo già passato con il 5950X). Per migliorare la situazione devi per forza scendere con le impostazioni del gioco...magari scegliendo le voci che impattano relativamente poco sulla qualità grafica ma che ti riescano a portare quei cavolo di minimi oltre i 60fps. Comunque nel gioco quando ti troverai in certe aree con tante personaggi e RT vedrai che i minimi purtroppo scenderanno ancora.
molto interessante, avevo perso questo post... :(

avrei pensato che il 5800X3D prendesse le distanze dal mio XE a quella risoluzione, invece siamo li da quel che vedo, qualcosina meglio il vecchietto addirittura non credevo, 4090 def

cp2077-1440p-4090-patch-tracing-dlss-quality.jpg

lo tieni default il procio? ram?
 
beh la faccio non dovrebbe essere troppo difficile, ma devo fare dei test prima
Sisi certo! Tienici aggiornati sui test che fai e se ti posso essere d'aiuto in qualcosa dimmelo dato che abbiamo la stessa scheda video.😉 Comunque stock mi ha bastato amche a 2950Mhz è capitato anche a te? Questo un TimeSpy:
IMG_0729.webp
 
lo tieni default il procio? ram?
Si. Procio a default, ram a 3600@cl14. Cyberpunk non beneficia della 3D cache. Basta fare un confronto tra il 5800X ed il mio X3D:



e poi confrontare il 5800X con un Intel buono...tipo il 12900K, sempre allo stesso gioco:



Intel in definitiva rende meglio in CP2077. Bisogna andare di AM5 per recuperare (se proprio uno volesse). Quindi per proprietà transitiva anche i relativamente "vecchi" Intel vanno abbastanza bene.
 
Ultima modifica:
Per chi è interessato e si vuole cimentare comunque qualche giorno fa su un altro forum abbiamo fatto un run in CB2077 in path tracing con impostazioni 4K+DLSS Quality+Frame Generation. Tra le nostre fila potevamo annoverare un 11700, un 11900KF, un 13900K ed il mio 5800X3D. I risultati alla fine non si discostano più di tanto tra di noi:

 
Un bottleneck pazzesco XD
Io non ho il coraggio di provarlo, altrimenti stacco la mobo e lancio dalla finestra...
Vedi che tu non sai cosa significa bottleneck ? Guarda il frametime e la percentuale di occupazione della CPU.
Li non c’è bottleneck, ma semplicemente una scheda sovradimensionata per il 1440P
 
Ma sei serio?
Guarda la % di utilizzo della tua gpu in spiderman con dlss2...
SI CHIAMA BOTTLENECK
No, si chiama non sapere di cosa stai parlando ma aver visto troppi youtubers parlare a caso…

Domanda seria. Chi lo fa il bottleneck in quel caso, l'elaborazione del DLSS che non compare nelle percentuali di utilizzo che sono esclusivamente associate al gioco (il DLSS sarebbero i driver)? 🤔

Perchè in effetti non me lo so spiegare, i gigahertz di clock li hai, i core li hai liberi: allora cos'è?
Non è bottleneck quello, che come ho detto è la parola più abusata del web/tubo.
Semplicemente una 4080 a 1440P su quel gioco è troppo potente per essere messa alla frusta, quindi conserva risorse libere. Ma risorse libere le ha anche la CPU, quindi vedi un frametime abbastanza regolare, senza grossi picchi, 1%low buono e ottimo frame rate.

Esatto.

Se come dice Kal, cambiando processore farebbe più fps (da verificare), allora sarebbe la cpu il bottleneck.

Però ripeto la tua domanda: dove sta il bottleneck di quella cpu se i cores sono liberi?? 🤔
No, anche se cambiando CPU aumentassero gli FPS non è detto che si parli di “bottleneck” (almeno non inteso come “problema”).
Se il framerate è regolare ed il frame time più o meno costante, fare 150FPS o farne 170 non cambia una beata fava, se non per l’esaltato di turno.
Il collo di bottiglia, quello vero che costringe ad aggiornare l’hw, si ha quando la scheda video resta letteralmente ad aspettare la CPU, e te ne accorgi da stuttering e frametime ballerino.

beh è ovvio che con una cpu migliore vai meglio la cambierò ma più in la 1200 euro non si smaltiscono in 2 giorni

Per ora mi accontento del 10700k poi se inizia a dare problemi vediamo aspetto la prossima gen intel

Post scriptum : poi per il processore ci vorranno minimo altri 6 mesi cosi con mia moglie


Visualizza allegato 458288
Crime ma lascia stare…
Non c’è alcuna fretta.
TLOU è scritto a cacchio non usarlo come bench per verificare se la tua CPU va bene o no.
 
Si quello che dici ci sta 😉👍


Nell'esempio sarebbe stato meglio dire che hai 12 autostrade (core) ognuna con 2 corsie (thread) ma ho capito lo stesso 😅

Si quello che dici ci sta tutto, in effetti hai ragione, ma come ho scritto prima, questo problema lo avresti anche con un 13900K spinto perchè poi il problema, oltre al clock, è anche che parallelizzare troppo diventa dispendioso. Nel senso che poi il collo di bottiglia diventa l'accesso alla memoria e la suddivisione stessa del lavoro fra i core. Comunque di frequenza non possono salire oltre una certa soglia, lo sappiamo dal Pentium 3 ormai, quindi non vedremo mai CPU a 10 GHz (ad esempio) 😣

Fra l'altro, a seconda dei giochi e ottimizzazioni, potresti incorrere nel bottleneck anche a 4K visto che la 4090 rimane comunque un mostro di potenza 😁
--- i due messaggi sono stati uniti ---
Nel caso specifico dell'esempio che hai screenshottato allora il problema lo causa il DLSS stesso, che a quanto pare utilizza la potenza della CPU, altrimenti non si spiega
Quello che ha detto è TOTALMENTE errato, ed informaticamente inesatto.
Il 13900K va bene nei giochi SOLO per una scelta di mercato di Intel che usa frequenze e cache più grandi sugli i9 rispetto agli altri, per spingere la gente ad acquistare la CPU più costosa anche se non serve (e gli YouTuber sono i complici). Se tu avessi un 13600K con stesso clock e stessa cache del 13900K, con i giochi ANDREBBERO UGUALI, visto che il gaming non è rendering e non è in alcun modo parallelizzato così tanto.
Chi si è preso un 5900X per giocare ha sbagliato, cadendo nello stesso giochetto, visto che in gaming un 5800X va praticamente identico (AMD differenzia meno le CPU, puntando sul numero di core più che su cache diverse, ed anzi le CPU con due CCD per certi aspetti sono peggio delle mono CCD per via della latenza)

1682307715783.webp

In pratica la differenza tra un 5800X ed un 5900X è meno del 1% (il Ryzen 9 ha 100 MHz in più di boost).

Il suo discorso sull’autostrada non si fa neppure ai bambini dell’asilo. Su quell’autostrada non ci sono auto che viaggiano alla stessa velocità. E parlando di gaming, il più delle volte hai bisogno solo di 4/6 corsie, quindi averne 12 non cambia nulla.

Per chi è interessato e si vuole cimentare comunque qualche giorno fa su un altro forum abbiamo fatto un run in CB2077 in path tracing con impostazioni 4K+DLSS Quality+Frame Generation. Tra le nostre fila potevamo annoverare un 11700, un 11900KF, un 13900K ed il mio 5800X3D. I risultati alla fine non si discostano più di tanto tra di noi:

Si, a parte quella zozzeria del 11900KF, la peggiore CPU prodotta da Intel nell’ultimo decennio, alla fine cambia poco con un gioco molto pesante sulla GPU come quello. Visto il rislutato del 11700, altra “mezza porcheria” in quest’ottica il 10700K di Crime sarebbe andato benissimo.
 
quando la gpu non viene utilizzata al 100 % per motivi che non dipendono dal gioco stesso, é bottleneck. il bottleneck deriva da uno sbilnciamento del sistema che non per forza é la cpu troppo scarsa puo essere anche il monitor, in questo caso specifico, é la risoluziome troppo bassa a limitare quella scheda, la cpu piu di tot non riesce a processare e la vgarimane molto indietro.
nulla di grave per carita, quella gpu é talmente potente in qhd che anche lavorando al 50% ti fa 100 fps, pero il bottlemeck cé non si puo sostenere il contrario
 
No, si chiama non sapere di cosa stai parlando ma aver visto troppi youtubers parlare a caso…


Non è bottleneck quello, che come ho detto è la parola più abusata del web/tubo.
Semplicemente una 4080 a 1440P su quel gioco è troppo potente per essere messa alla frusta, quindi conserva risorse libere. Ma risorse libere le ha anche la CPU, quindi vedi un frametime abbastanza regolare, senza grossi picchi, 1%low buono e ottimo frame rate.


No, anche se cambiando CPU aumentassero gli FPS non è detto che si parli di “bottleneck” (almeno non inteso come “problema”).
Se il framerate è regolare ed il frame time più o meno costante, fare 150FPS o farne 170 non cambia una beata fava, se non per l’esaltato di turno.
Il collo di bottiglia, quello vero che costringe ad aggiornare l’hw, si ha quando la scheda video resta letteralmente ad aspettare la CPU, e te ne accorgi da stuttering e frametime ballerino.


Crime ma lascia stare…
Non c’è alcuna fretta.
TLOU è scritto a cacchio non usarlo come bench per verificare se la tua CPU va bene o no.
tranquillo, per il momento sono soddisfatto, nessun problema sul frametime quindi il 10700k per adesso tiene botta!
 
Pubblicità
Pubblicità
Indietro
Top