UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Sono d'accordo che un 7800X3D (o un 5800X3D) sono i migliiori processori per sfruttare al massimo una 4080 o una 4090
Ma prima parlavano proprio del pc con la 4080 (e con il 3700x).
Se non ho capito male... In questo thread c'è il più alto tasso di pc per persona mai visto, è facile confondersi 😆
 
Ah ok hai corretto.

Quindi ora dici che c'è l input lag (perfetto)... Ma è compensato dai maggiori fps??? 😂

Cioè i frame generati compensano l'input lag adesso??
Era meglio che non correggevi 😅

I frame generati non corrispondono ad aggiornamenti del motore di gioco. Non puoi inviare input o elaborare output nei frame generati perché non esistono proprio nel motore di gioco.
Dal punto di vista della latenza gli fps generati è come se non esistessero!

Non ho provato dlss3 ma so come funziona, sempre meglio di chi dice che i maggiori frame aiutano con l'input lqg 🤣

I maggiori frame rendono più fluida l immagine ma in termini di latenza (distanza temporale tra un input del giocatore e riproduzione dell'effetto sul monitor) non cambiano nulla.
Ribadisco: guardati il video di Digital Foundry:

1683371794599.png

Fai discorsi basati su premesse del tutto errate.
Il frame rate non raddoppia (magari !), e l’input lag chiaramente non raddoppia.
Il maggiore numero di FPS prodotti genera un esperienza di gioco migliore (beh in questo esempio meno rilevante, visto che sono 100 fPS anche con DLSS 2) in cambio di un limitato gap.

In casi più limite come questo:

1683372393677.webp

Il vantaggio del frame generator diventa ancora più evidente : maggiori FPS in cambio di un accettabilissima variazione di input lag.

Sono giorni che scrivi inesattezze sui “frame finti” come se la scheda producesse 60 FPS e ne visualizzasse 120 al doppio della latenza. Per questo ti ho detto che dovresti provarla.
Tra l’altro queste prove sono senza Nvidia Reflex… e fatte 6 mesi fa con la prima versione del frame generator.

La situazione è molto migliore di quella che pensi, credimi.
 
Ultima modifica:
Ah, ero convinto che interpolasse 1 frame ogni due e quindi raddoppiassero 😅

Allora forse non è così male fare anche solo 60fps col dlss3, vero, ma è sempre vero che la latenza non solo non diminuisce, ma aumenta attivando dlss3.

Il "paradosso" che avevo in testa rimane: ai soli fini della latenza conviene fare X fps veri piuttosto che (X+Y) fps (veri + generati).
Infatti nella tabella, i 155fps hanno latenza maggiore dei 100.
Poi ovviamente non è solo la latenza che conta, però è una cosa che va precisata.
 
Ah, ero convinto che interpolasse 1 frame ogni due e quindi raddoppiassero 😅

Allora forse non è così male fare anche solo 60fps col dlss3, vero, ma è sempre vero che la latenza non solo non diminuisce, ma aumenta attivando dlss3.

Il "paradosso" che avevo in testa rimane: ai soli fini della latenza conviene fare X fps veri piuttosto che (X+Y) fps (veri + generati).
Infatti nella tabella, i 155fps hanno latenza maggiore dei 100.
Poi ovviamente non è solo la latenza che conta, però è una cosa che va precisata.
Si ho risposto di fretta e poi editato (la moglie chiamava…)

La latenza non diminuisce ed aumenta, ma per noi “esseri umani” passare da 36 a 45 ms direi che è accettabile, no ?

Poi come dicevo, se devi fare il torneo a CS:GO non mi pare il caso, ma per una partita a CP2077 direi che ci sta
 
Mi associo a chi dice che questo post ha raggiunto livelli da fuori di testa 😅

Sono d'accordo che un 7800X3D (o un 5800X3D) sono i migliiori processori per sfruttare al massimo una 4080 o una 4090, ma davvero per una 3060 TI un 3700X può andare benissimo! Solo se devi acquistarli ex-novo però, il passaggio non conviene affatto.

Dai ragazzi, torniamo sulla terra, perchè 'sto pianeta krypton ci sta rincitrullendo 🤣
ehm ... dovresti seguire tutto il discorso prima, perchè il dubbio non è sul 3700x e il 3060ti.
--- i due messaggi sono stati uniti ---
Sì, il tuo ragionamento è perfettamente corretto
Così facendo equilibri meglio i pc
MA sei riconico o mi dici sul serio? No perchè comincio anon capire più nulla...
 
ehm ... dovresti seguire tutto il discorso prima, perchè il dubbio non è sul 3700x e il 3060ti.
Si scusa/scusate, è che non riesco a seguire proprio tutto tutto ... scrivete così tanto 😅

Ma prima parlavano proprio del pc con la 4080 (e con il 3700x).
Se non ho capito male... In questo thread c'è il più alto tasso di pc per persona mai visto, è facile confondersi 😆
Ah guarda, io vi batto tutti, si sa che innalzo la media del thread: nella stanza/ufficio personale dove lavoro, di PC ne ho 4!!! Anzi ora ne ho assemblato uno nuovo, non ho neanche spazio dove posizionarlo, e se consideriamo pure il NAS arrivo in totale a 6 🫡

Sono il classico personaggio che predica bene e razzola male 😒
 
Ah, ero convinto che interpolasse 1 frame ogni due e quindi raddoppiassero

Allora forse non è così male fare anche solo 60fps col dlss3, vero, ma è sempre vero che la latenza non solo non diminuisce, ma aumenta attivando dlss3.

Il "paradosso" che avevo in testa rimane: ai soli fini della latenza conviene fare X fps veri piuttosto che (X+Y) fps (veri + generati).
Infatti nella tabella, i 155fps hanno latenza maggiore dei 100.
Poi ovviamente non è solo la latenza che conta, però è una cosa che va precisata.
si è quello che stavo cercando di spiegarti, è vero che la latenza aumenta ma non lo fa in maniera cosi drastica da crearti un reale disagio.

Quei ms in più potrebbero essere anche considerati un provlema se prendiamo un goccio competitivo, ma in CP2077 assolutamente no.

Più se vuoi ti do anche la sensazione personale che ho avuto
 
Ultima modifica:
Ribadisco: guardati il video di Digital Foundry:

Visualizza allegato 459023

Fai discorsi basati su premesse del tutto errate.
Il frame rate non raddoppia (magari !), e l’input lag chiaramente non raddoppia.
Il maggiore numero di FPS prodotti genera un esperienza di gioco migliore (beh in questo esempio meno rilevante, visto che sono 100 fPS anche con DLSS 2) in cambio di un limitato gap.

In casi più limite come questo:

Visualizza allegato 459025

Il vantaggio del frame generator diventa ancora più evidente : maggiori FPS in cambio di un accettabilissima variazione di input lag.

Sono giorni che scrivi inesattezze sui “frame finti” come se la scheda producesse 60 FPS e ne visualizzasse 120 al doppio della latenza. Per questo ti ho detto che dovresti provarla.
Tra l’altro queste prove sono senza Nvidia Reflex… e fatte 6 mesi fa con la prima versione del frame generator.

La situazione è molto migliore di quella che pensi, credimi.
Posso confermare che sto giocando diversi giochi con frame generator e non noto assolutamente nessun aumento di latenza. Non metto in dubbio che aumenti ma a meno che non si è un player competitivo non se ne accorgerebbe nessuno.😉 A proposito ho una domanda ma conviene attivare Nvidia reflex normale o reflex+boost? Che cambia? Io penso che convenga sempre fare con boost.
 
Un Signore: sposti il problema sul PC della consorte 😂
Scherzi a parte il 3700X a 1440P forse diventa più limitante, ma è anche vero che una 3060Ti non è sto mostro di potenza.
Occhio solo che il 5800X in un miniITX va regolato con cura.


Prova FC6, sono curioso.
Oggi, tra un impegno e l'altro, provo a reinstallare quello scempio di FC6 e vi faccio sapere...
 
Ultima modifica:
Il collo si misura in base ai problemi e alle necessità .
Per prima cosa in 4k tutto il carico va alla GPU , quindi si v apparisce tutto!

Il processore in 4k ha una valenza relativamente bassa, che tu faccia 100 FPS o 115 su cp in 4k non cambia assolutamente nulla! Il gioco sarà fluido, il gameplay gradevole.

Se hai ascoltato quello che abbiamo detto il proclama si pone se hai problemi SUL FRAMETIME

Ossia quando il processore "fatica" significa che la CPU ha occupazioni elevate, la GPU ha occupazioni BASSE e il frametime risulta "sballato" cioè hai detto picchi che creano STUTTERING

Li hai una GPU che lavora vicino al 100% con un frametime piatto, non hai nessun tipo di problema

Inviato dal mio Pixel 7 utilizzando Tapatalk
Crime, ancora con questo frametime…
Un ryzen 3000 con una 4080 è un barzelletta, e sbagli ancora nel dire che a 2160p la cpu è ininfluente, in quanto dipende soprattutto dalla potenza della Gpu che dall’engine di gioco.
Poi ti ripeto ancora una volta, se in un videogame la gpu non va in full load a causa di un bottleneck della cpu(cpu limited), tu la GPU non la stai sfruttando, quindi cosa hai fatto a fare l’upgrade?
Con il 5900x in alcuni giochi a 2160p, la 4090 è al 70%, quindi per favore, non insistiamo con queste teorie assurde del frametime, si guarda il gpu usage!
 
Crime, ancora con questo frametime…
Un ryzen 3000 con una 4080 è un barzelletta, e sbagli ancora nel dire che a 2160p la cpu è ininfluente, in quanto dipende soprattutto dalla potenza della Gpu che dall’engine di gioco.
Poi ti ripeto ancora una volta, se in un videogame la gpu non va in full load a causa di un bottleneck della cpu(cpu limited), tu la GPU non la stai sfruttando, quindi cosa hai fatto a fare l’upgrade?
Con il 5900x in alcuni giochi a 2160p, la 4090 è al 70%, quindi per favore, non insistiamo con queste teorie assurde del frametime, si guarda il gpu usage!
Vabbè, però che io sappia, nel piccolo della mia profonda ignoranza in materia, la GPU al 70% può essere dovuta anche al gioco più che all HW
 
Crime, ancora con questo frametime…
Un ryzen 3000 con una 4080 è un barzelletta, e sbagli ancora nel dire che a 2160p la cpu è ininfluente, in quanto dipende soprattutto dalla potenza della Gpu che dall’engine di gioco.
Poi ti ripeto ancora una volta, se in un videogame la gpu non va in full load a causa di un bottleneck della cpu(cpu limited), tu la GPU non la stai sfruttando, quindi cosa hai fatto a fare l’upgrade?
Con il 5900x in alcuni giochi a 2160p, la 4090 è al 70%, quindi per favore, non insistiamo con queste teorie assurde del frametime, si guarda il gpu usage!
ancora spari numeri a casaccio!
Las barzelletta è tenere una 4090 in QHD e poi affermare che si vuole la "fedeltà grafica"
 
Oggi, tra un impegno e l'altro, provo a reinstallare quello scempio di FC6 e vi faccio sapere...
se scambi il processore con quello di tua moglie è una cosa sensata ma comprarlo assolutamente no non farti paranoie senza senso in 4k a giocare cn un 3700x non avrai nessun tipo di problema.
 
Vabbè, però che io sappia, nel piccolo della mia profonda ignoranza in materia, la GPU al 70% può essere dovuta anche al gioco più che all HW
Certo che può esser dovuto anche dal gioco(bottleneck software), ma nel 90% dei casi lovelace è limitata dalla cpu, poi ti è sufficiente verificare in rete da fonti affidabili, quanto una 4089 fa con una data cpu, ad una data risoluzione in un dato gioco.
Prova re4, hogwarts legacy, gli ultimi titoli usciti insomma, se vedi che il 3000 che hai tappa la 4080(e la tappa, mi ci gioco la 4090), pensaci sopra sul da farsi.
 
Certo che può esser dovuto anche dal gioco(bottleneck software), ma nel 90% dei casi lovelace è limitata dalla cpu, poi ti è sufficiente verificare in rete da fonti affidabili, quanto una 4089 fa con una data cpu, ad una data risoluzione in un dato gioco.
infatti in 4k la cpu non fa da collo praticamente in nulla con una 4080, smettiamola con fare terrorismo e vedere problemi dove non esistono

Poi saremmo noi a fare disinformazione
 
Pubblicità
Pubblicità
Indietro
Top