UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Domanda seria. Chi lo fa il bottleneck in quel caso, l'elaborazione del DLSS che non compare nelle percentuali di utilizzo che sono esclusivamente associate al gioco (il DLSS sarebbero i driver)? 🤔

Perchè in effetti non me lo so spiegare, i gigahertz di clock li hai, i core li hai liberi: allora cos'è?
Il bottleneck lo fa la cpu, sia nel mio screen che in quello di Crime.
Con il dlss2 il fenomeno aumenta ancora perché è come se stessi renderizzando ad una risoluzione minore, quindi la ''velocità'' della cpu( E NON LA % DI UTILIZZO DEI CORE*) è quella fa da tappo al sistema.
*Non ce l ho con te, ma qui ancora siamo messi che al bottleneck si guarda la % di utilizzo dei cores?
 
Ultima modifica:
guarda non ho voglia di discutere tento sei una causa persa chiamalo come ti pare e prediti il processore più costoso in commercio, tanto i soldi so tuoi mica miei
Crime non c'è nulla da discutere, la % di utilizzo della tua gpu si vede nello screen, è in BOTTLENECK, non capisco perché insisti!!!
Se ad esempio, dai quel gioco in pasto ad un 13900k, ma anche ad un 13600k, invece del 47% di utilizzo della gpu, vedrai che ne so, magari l'80%, con coseguente aumento dei frame.
Queste sono le basi, ragazzi!
--- i due messaggi sono stati uniti ---
90 minuti di applausi
Jesse, per favore smettila di fare chiasso.
 
Ultima modifica:
Domanda seria. Chi lo fa il bottleneck in quel caso, l'elaborazione del DLSS che non compare nelle percentuali di utilizzo che sono esclusivamente associate al gioco (il DLSS sarebbero i driver)? 🤔

Perchè in effetti non me lo so spiegare, i gigahertz di clock li hai, i core li hai liberi: allora cos'è?
Esatto.

Se come dice Kal, cambiando processore farebbe più fps (da verificare), allora sarebbe la cpu il bottleneck.

Però ripeto la tua domanda: dove sta il bottleneck di quella cpu se i cores sono liberi?? 🤔
 
Domanda seria. Chi lo fa il bottleneck in quel caso, l'elaborazione del DLSS che non compare nelle percentuali di utilizzo che sono esclusivamente associate al gioco (il DLSS sarebbero i driver)? 🤔

Perchè in effetti non me lo so spiegare, i gigahertz di clock li hai, i core li hai liberi: allora cos'è?
Ti faccio un esempio pratico, è il primo che mi è venuto in mente, non sarà tecnicamente corretto, ma riassume il concetto.
Il core è la corsia di un'autostrada, tu hai due autostrade con dodici corsie(12 core) ciascuna, in una autostrada camminano solamente 300 Punto(% di utilizzo del core, dato dal volume delle auto) alla massima velocità(la velocità dell'auto è la capacità di processare i dati), mentre nell'altra autostrada, sempre a 12 corsie camminano 300 ferrari alla massima velocità.
Secondo te, quale delle due autostrade avrà una percorrenza più veloce? nonostante entrambe abbiano 12 corsie(12 cores) e lo stesso volume di auto(%di utilizzo)?

Se come dice Kal, cambiando processore farebbe più fps (da verificare), allora sarebbe la cpu il bottleneck.
Non c'è nulla da verificare @Avets, metti ad esempio che ne so, 13900k Marvel spiderman rtx 4080 1440p, e guarda la percentuale di utilizzo della gpu, sara sicuramente maggiore, altrimenti nessuno farebbe mai upgrade della cpu :)
 
Ultima modifica:
Ti faccio un esempio pratico, è il primo che mi è venuto in mente, non sarà tecnicamente corretto, ma riassume il concetto.
Il core è la corsia di un'autostrada, tu hai due autostrade con dodici corsie(12 core) ciascuna, in una autostrada camminano solamente 300 Punto(% di utilizzo del core, dato dal volume delle auto) alla massima velocità(la velocità dell'auto è la capacità di processare i dati), mentre nell'altra autostrada, sempre a 12 corsie camminano 300 ferrari alla massima velocità.
Secondo te, quale delle due autostrade avrà una percorrenza più veloce? nonostante entrambe abbiano 12 corsie(12 cores) e lo stesso volume di auto(%di utilizzo)?
Le Ferrari vanno più veloci chiaro.

Il problema qui è un altro, se la tua autostrada porta al massimo 300 auto, adesso ne ha neanche 150, eppure per qualche motivo non riesce a portarne di più... Perché?


Forse ci sono processi male ottimizzati che seppur leggeri, impiegano un sacco di clock a completarsi. Quindi il core di turno sebbene impiegato a 20% ci mette comunque un sacco a completare il processo.

O forse ci sono processi del motore di gioco che devono aspettare altri processi per iniziare. Nessun core è usato a pieno ma semplicemente deve aspettare la fine di altri processi per iniziare il suo lavoro e quando arriva il suo turno può fare solo un processo perché gli altri aspettano quello che sta facendo...
 
@
Ti sta piacendo la scheda?
beh è una scheda potente, onestamente devo dire che è anche esagerata, come detto l'ho rpesa giusto eprchè passo da xx80 a xx80 ( o gù di li) da anni orami e lo faccio perchè non ho la possibilità di togliermi altri sfizi/divertimenti.

Oltre al fatto che con un hardware aggiornato riesco a dare un contributo più incisivo sul forum

Coem scheda è senza dubbio potente, ma onestamente non mi serviva è tutto sfizio
 
Il bottleneck lo fa la cpu, sia nel mio screen che in quello di Crime.
Con il dlss2 il fenomeno aumenta ancora perché è come se stessi renderizzando ad una risoluzione minore, quindi la ''velocità'' della cpu( E NON LA % DI UTILIZZO DEI CORE*) è quella fa da tappo al sistema.
*Non ce l ho con te, ma qui ancora siamo messi che al bottleneck si guarda la % di utilizzo dei cores?
Se non è il carico di lavoro allora l'unica alternativa è la velocità di clock, non c'è molto altro. Però capisci che a quel punto neanche un 13900K overcloccato all'estremo potrebbe evitare il bottleneck. Quindi forse è come dicono: tutto dipende dalla risoluzione (e anche dall'ottimizzazione del gioco penso).

AH anche la velocità della memoria in effetti influisce ... le DDR5 in questo caso migliorano
 
Pubblicità
Pubblicità
Indietro
Top