UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Evidentemente @Kal El precepisce molto differenze legate al movimento, molto più dell'utente medio. Oppure si sta autoconvincendo di questo per giustificare, a se stesso, l'aggiornamento dell'hardware grafico: d'altronde, in modo diverso, lo facciamo un po' tutti qui. 🤣 Ma a parte gli scherzi, non sottovaluterei l'aspetto legato alla percezione soggettiva, perchè una differenza che per qualcuno può sembrare marginale o addirittura non visibile, per qualcun'altro potrebbe essere netta.

son d'accordissimo con te infatti non sto contestando il fatto che avere un migliore "motion clarity" se si è sensibili alla cosa sia un bene

E' però sbagliato chiamarlo "ghosting" e usare quelle immagini per dire che un monitor @ 60hz ha più "ghosting" di uno a 144hz

Al massimo possiamo affermante che a 144hz il blurring derivato dal movimento sarà leggermente migliore, ovviamente ed è una cosa "fisiologica"

Puoi dire che il blur ti da fastidio e sei molto sensibile alla cosa, e siam d'accordo, ma che messo a 60hz hai più "ghosting" di 144hz è proprio un informazione scorretta son due cose diverse, quel test è fatto non per far vedere che @ 60 hz ha più blurring questo è una cosa scontata perché più la frequenza si alza più il "motion clarity" sarà "leggermente migliore", ma da qui a far diventare questa cosa "importante" ce ne passa!

Poi un altro aspetto di quel test è che è un "invenzione" ossia non dobbiamo dimenticare come hai giustamente detto che è fotocamera che lo riprende e lo fa in un certo modo

Viene posizionata una fotocamera digitale su un carrello che viene fatta scorrere allo stessa velocità delle immagini a questo punto viene scattata una serie di foto

Visto che il test è generalmente usato per capire o meno la presenza di "ghosting" ossia se ci sono delle scie il cosiddetto "blurring" che ne deriva potrebbe non essere un elemento davvero oggettivo, ossia lo è per quel modello di camera digitale, che ha una messa a fuoco dei tempi di esposizione ecc, ma la percezione umana non è una fotocamera.

Quindi il cosiddetto "blurring" derivato potrebbe davvero non essere percepibile nemmeno se sei sensibile alla cosa

Ma come già detto anche ammettendo che sei molto sensibile al blurring, ed anche ammettendo che riesci a notare su un monitor che va a 60hz quel tipo di blurring ( e qui ho i miei grossi dubbi) la soluzione migliore è sempre quella di usare il BFI che da un "motion clarity" elevatissimo
 
Ultima modifica:
Ho letto le ultime pagine.
Secondo me, facendo un po' una sintesi, saremo tutti d'accordo che per varie ragioni lo stesso monitor a 144Hz performerà meglio in termini di fluidità, ma anche di precisione con cui sono rappresentati gli oggetti in movimento (sto sul vago volutamente perchè ci sono diversi fenomeno che si intrecciani) rispetto a quando è usato a 60Hz. Allo stesso modo, due monitor diversi entrambi usati a 60Hz potrebbero dare risultati diversi sotto questo aspetto.

Questo per quanto riguarda l'aspetto tecnico\oggettivo. Poi, nell'utilizzo reale, entra in gioco la soggettività delle percezioni che uno ha. Io, ad esempio, noto poco persino la differenza tra 60 e 120Hz, quindi evindentemente sono poco sensibile dal punto di vista della fluidità, ghosting, blur, motion clarity e quant'altro. Allo stesso tempo però soffro a usare un monitor FHD anche da 21-22 pollici e ho notato benissimo la differenza di precisione delle immagini (statiche, stavolta) tra un 24" QHD e un 27" UHD. Addirittura, vi so dire (quasi) a colpo d'occhio se lo schermo da 6" di un cellulare è FHD oppure QHD, nonostante molti sostengono di non notare nessuna differenza.

Evidentemente @Kal El precepisce molto differenze legate al movimento, molto più dell'utente medio. Oppure si sta autoconvincendo di questo per giustificare, a se stesso, l'aggiornamento dell'hardware grafico: d'altronde, in modo diverso, lo facciamo un po' tutti qui. 🤣 Ma a parte gli scherzi, non sottovaluterei l'aspetto legato alla percezione soggettiva, perchè una differenza che per qualcuno può sembrare marginale o addirittura non visibile, per qualcun'altro potrebbe essere netta.
Lo percepivo anche sul 120Hz@1080p, quando gli Fps si attestavano sotto i 60, ed ora accade anche sul 1440p@165Hz, quando gli fps cominciano a droppare al di sotto dei 75.
Comincio a notare ghosting/effetto Blur attorno al PG quando è in movimento, ed un rallentamento generale come se si passasse da 60 a 30fps.
Sicuramente la'' soggettività percettiva'' gioca un grande ruolo, ma di certo non si può negare l'esistenza di questo fenomeno, è come per la fotocamera che per rilevare il blur/ghosting/panning (come nelle foto da me postate precedentemente) deve aumentare il tempo di esposizione, quindi dipende molto dal sistema nervoso.
Perché dovrei giustificarmi non ho capito???XD
Mi sono fatto il giocattolino nuovo, e non vedo l'ora di giocarci, come un bambino ahhahahaha
 
Lo percepivo anche sul 120Hz@1080p, quando gli Fps si attestavano sotto i 60, ed ora accade anche sul 1440p@165Hz, quando gli fps cominciano a droppare al di sotto dei 75.
Comincio a notare ghosting/effetto Blur attorno al PG quando è in movimento, ed un rallentamento generale come se si passasse da 60 a 30fps.
Sicuramente la'' soggettività percettiva'' gioca un grande ruolo, ma di certo non si può negare l'esistenza di questo fenomeno, è come per la fotocamera che per rilevare il blur/ghosting/panning (come nelle foto da me postate precedentemente) deve aumentare il tempo di esposizione, quindi dipende molto dal sistema nervoso.
Perché dovrei giustificarmi non ho capito???XD
Mi sono fatto il giocattolino nuovo, e non vedo l'ora di giocarci, come un bambino ahhahahaha

Giustificare a te stesso, mica a noi. Nel senso che se non avessi percepito la necessità non l'avresti comprata. Intendevo solo quello 😅
 
@Kal El la scimmia ormai si è impossessata dei tuoi nervi ottici e ti ha convinto che se non fai almeno 160 fps in 4k non puoi giocare🤣
Perché ''sprecare'' le risorse della 4090 per giocare a 2160p nel range magari degli 80-100 fps???
1440P o 1440p con Dldsr ad 1.7x ed alto refresh, il problema sarà la cpu a questa risoluzione, ma aspetto le nuove proposte per fine estate/fine anno, in quanto quelle attuali a 1440p, tutte, inchiodano la 4090.
Non so da quanto tempo non accadeva ciò, ossia che, nessuna cpu riesce a star dietro ad una gpu, si, molto lo fa l'overhead dei driver nVidia sulla cpu, però, siamo ad un punto dove i produttori di cpu devono darsi una bella ''svegliata'' ;)
Assistiamo ad un aumento gen by gen del x2 in ambito Gpu, mentre per quanto riguarda le cpu, gen by gen, se va bene, un aumento del 20%, non tengono il passo.
 
Ultima modifica:
Perché ''sprecare'' le risorse della 4090 per giocare a 2160p nel range magari degli 80-100 fps???
1440P o 1440p con Dldsr ad 1.7x ed alto refresh, il problema sarà la cpu a questa risoluzione, ma aspetto le nuove proposte per fine estate/fine anno, in quanto quelle attuali a 1440p, tutte, inchiodano la 4090.
Non so da quanto tempo non accadeva ciò, ossia che, nessuna cpu riesce a star dietro ad una gpu, si, molto lo fa l'overhead dei driver nVidia sulla cpu, però, siamo ad un punto dove i produttori di cpu devono darsi una bella ''svegliata'' ;)
No vabbe, questo è progresso!! Il 2160p è per mezze pippe, 1440p sparato a x1.7 è per veri uomini 😆
Un vero uomo per dimostrarsi tale non può che non avere un 14900k preso 1 giorno dopo il lancio 🤣
--- i due messaggi sono stati uniti ---
Tu sei nuovo, te lo sei perso l'anno scorso con varie discussioni sulle 3000...😉😁
No vabbe posso solo immaginare le risate
 
Lo percepivo anche sul 120Hz@1080p, quando gli Fps si attestavano sotto i 60, ed ora accade anche sul 1440p@165Hz, quando gli fps cominciano a droppare al di sotto dei 75.
Comincio a notare ghosting/effetto Blur attorno al PG quando è in movimento, ed un rallentamento generale come se si passasse da 60 a 30fps

scusa ma questa affermazione è assurda puoi anche "autoconvincerti" di vederlo, ma qualsiasi cosa che tu veda non è quello!

I primis per aver un blur l'immagine deve essere fortemente mossa, cosa che non avviene nel 90% dei giochi!
poi che tu riesca a vedere quella differenza come una fotocamera digitale ad ad alta freq, onestamente non lo devo dire io che è una cosa assurda fatit assumere da quelli che testano i monitor
 
scusa ma questa affermazione è assurda puoi anche "autoconvincerti" di vederlo, ma qualsiasi cosa che tu veda non è quello!

I primis per aver un blur l'immagine deve essere fortemente mossa, cosa che non avviene nel 90% dei giochi!
poi che tu riesca a vedere quella differenza come una fotocamera digitale ad ad alta freq, onestamente non lo devo dire io che è una cosa assurda fatit assumere da quelli che testano i monitor
Possiamo anche fare una prova, togliamo la telemetria a schermo, gioco, e ti dico quando comincio a notare ''ghosting''.
Sul mio monitor, in base alla mia ''sensibilità'', posso star tranquillo da 80 fps a salire, ma non mi fa impazzire la fluidità ad 80fps, mentre dai 100 in su comincia ad appagarmi, coin un'ottima fluidità generale, poi se si sale ancora, sembra di ''galleggiare'' nel videogamene per quanto è fluido.
 
Possiamo anche fare una prova, togliamo la telemetria a schermo, gioco, e ti dico quando comincio a notare ''ghosting''.
Sul mio monitor, in base alla mia ''sensibilità'', posso star tranquillo da 80 fps a salire, ma non mi fa impazzire la fluidità ad 80fps, mentre dai 100 in su comincia ad appagarmi, coin un'ottima fluidità generale, poi se si sale ancora, sembra di ''galleggiare'' nel videogamene per quanto è fluido.
no no ti credo del resto ti chiami kal el se non ahi la vista a raggi x non sei nessuno
 
Ultima modifica:
Perché ''sprecare'' le risorse della 4090 per giocare a 2160p nel range magari degli 80-100 fps???
1440P o 1440p con Dldsr ad 1.7x ed alto refresh, il problema sarà la cpu a questa risoluzione, ma aspetto le nuove proposte per fine estate/fine anno, in quanto quelle attuali a 1440p, tutte, inchiodano la 4090.
Non so da quanto tempo non accadeva ciò, ossia che, nessuna cpu riesce a star dietro ad una gpu, si, molto lo fa l'overhead dei driver nVidia sulla cpu, però, siamo ad un punto dove i produttori di cpu devono darsi una bella ''svegliata'' ;)
Assistiamo ad un aumento gen by gen del x2 in ambito Gpu, mentre per quanto riguarda le cpu, gen by gen, se va bene, un aumento del 20%, non tengono il passo.

Più che biasimare i produttori di CPU, direi che è ora di puntare seriamente alla parallelizzazione del codice, sia lato driver, che lato motori di gioco. Anche se la programmazzione parallela complica sicuramente le cose agli sviluppatori.
Purtroppo in single thread i miglioramenti che si possono ottenere non sono enormi... Le GPU migliorano tanto perchè tutti i vantaggi che ottengono li ottengono parallelizzando sempre di più i calcoli (del resto la natura delle GPU è quella).
E comunque rispetto al periodo 2011-2015 direi che lato CPU già ci sono stati miglioramenti interessanti ultimamente
 
Ultima modifica:
E comunque rispetto al periodo 2011-2015 direi che lato CPU già ci sono stati miglioramenti interessanti ultimamente
A tal proposito direi che potremmo aprire il topic ufficiale di Meteor Lake, dato che leggo cose molto interessanti e che dovrebbe uscire entro il 2023 (motivo per cui mi sa che attendo ancora prima di cambiare, che faccio, compro tutto l'ambaradam qualche mese prima l'uscita di Meteor Lake, trovandomi sin dall'inizio con una cpu di una generazione indietro? non mi sembra molto sensato).
 
Ultima modifica:
Più che biasimare i produttori di CPU
Beh, soprattutto AMD se volesse potrebbe fare i cores più grandi ed aumentare così di molto l'ipc (e quindi le prestazioni single core).
Invece produce quei miseri quadratini pieni di cores minuscoli e roventi che chiamano CCD.

Intel lo fa con i suoi P cores ed è grazie a questo che compete ancora con AMD in gaming, nonostante quest'ultima utilizzi nodi produttivi molto più avanzati.


Il problema poi è che nei giochi c'è sempre un "main thread" che conduce il motore di gioco, credo.
Senza un main thread, sincronizzare più processi eterogeneri e variabili come quelli che penso ci siano nel gaming è molto più difficile che elaborare qualche milione di triangoli computazionalmente tutti uguali come fanno le gpu, temo 🤔
 
Mi sento tirato in causa facendo il developer.
Non è facile spostare il carico di un'applicazione da single core a multi core.
Già è difficile con applicativi standard figuratevi con gli engine di gioco.
Forse le cose possono diventare più facili per chi sviluppa in Unreal Engine che adesso si è aggiornato ed è diventato ancora più mostruoso.
Ma non tutte le sw house utilizzano lo stesso Engine.
Una capcom ad esempio ne utilizza uno proprietario, square enix ad esempio dipende dal titolo.
Crytek stessa utilizza un suo Engine.
Probabilmente dipende poi se l'engine prevede di poter spostare il carico sul multi thread.
Tecnicamente è più facile lato giochi multiplayer in quanto i giochi installati spesso e volentieri sono client (dove noi abbiamo a disposizione tutti gli assets etc etc) ma il motore di gioco sta su un server che spara coordinate etc etc.
Un gioco single player invece è molto + difficile da ottimizzare, soprattutto in ambito open world, dove l'area è vastissima, gli assets sono enormi e magari il motore grafico non è in grado di parallellizzare i processi che gli servano per gestire tutto cio.
Credo che mano a mano si faranno passi avanti e quindi non serviranno + cpu a mille mila hertz, ma serviranno + core e + thread anche ad una frequenza leggermente + bassa per gestire il carico di tutto l'applicativo.
 
Pubblicità
Pubblicità
Indietro
Top