UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Secondo me , che la sto utilizzando in questo modo, la 4080 la sfrutti bene su un 21:9 a 1440p o a 1600p. Bene anche il 4k certamente. La 4090 è davvero per il 2160p, o al massimo per il 21:9 1600p. Mia opinione da ignorante in materia...
 
macchè io me la prenderò per il 720p

quanto meno durerà secoli

potrebbe essere un'idea valida effettivamente, ci si limiterebbe solamente al cambio cpu e nel giro di una ventina d'anni forse la si sfrutterebbe a dovere...

certo in questi anni ti sanguinano gli occhi a 720p, ma i 12k FPS compensano tutto...
 
a quanto si legge in giro parrebbe di no
Ma se una 4070ti in Path tracing che ad oggi è la cosa più pesante che c'è con DLSS3 fa in 1440p 85 fps di media, con minime di 75 e massime, nemmeno tanto rare di 105 fps! E parliamo della tecnologia ad oggi più pesante in assoluto che obbliga ad usare il DLSS3 anche alle 4090! Se in RT normale a qualità ultra/folle, RT al massimo e DLSS a qualità (e DLSS3 OFF) in Cyberpunk sto mediamente sui 110 fps con rare minime di 90, se in Metro Exodus Enhanced edition sto sui 170 fps tutto maxato anche del RT con DLSS a qualità con picchi da 190 fps, in Control faccio 90/100 fps con DLSS OFF, vorrei sinceramente capire DOVE una 4090 attualmente non è sprecata in 1440p! Se parliamo tra qualche anno, quando ci saranno già le serie 5000 e UE5 avrà largamente preso piede, oltre che sempre più sfruttato e, come qualsiasi scheda anche lei avrà i suoi annetti sulle spalle con le richieste del gaming di quel futuro ok ma attualmente vorrei davvero capire dove una 4090 in 1440p non è sprecata..
 
Ultima modifica:
al di la del gioco. la 4090 in qualsiasi titolo non verrebbe sfruttata al 100% in qhd , é una condizione di cpu limited assoluta al quale é impossibile venirne fuori.
Mah, non sono così sicuro che con le nuove uscite non possa cambiare la situazione
Dipende da come verranno sfruttati i nuovi engine e quanto si andrà a caricare il "calcolo" sulle gpu
Per quanto anche io veda tale scheda come "da 4k" non escludo che nel prossimo anno non cominci a diventare sfruttabile anche a 1440p, soprattutto se si pensa di maxare i titoli sfruttando la risoluzione nativa (senza barbatrucchi di upscaling)

E comunque il "CPU limited" è sempre dipeso dal gioco e sempre lo sarà
Come faceva notare @wulff73 se prendi un simulatore il peso sulla cpu è molto più alto di altri titoli
 
Mah, non sono così sicuro che con le nuove uscite non possa cambiare la situazione
Dipende da come verranno sfruttati i nuovi engine e quanto si andrà a caricare il "calcolo" sulle gpu
Per quanto anche io veda tale scheda come "da 4k" non escludo che nel prossimo anno non cominci a diventare sfruttabile anche a 1440p, soprattutto se si pensa di maxare i titoli sfruttando la risoluzione nativa (senza barbatrucchi di upscaling)

E comunque il "CPU limited" è sempre dipeso dal gioco e sempre lo sarà
Come faceva notare @wulff73 se prendi un simulatore il peso sulla cpu è molto più alto di altri titoli

Per me la 4090 resterà da 4k almeno 2 anni, ma questo non toglie il fatto che a quel punto usciranno le RTX 5000 e si ricomincia tutto da capo....

e vaiii


non usare tecniche di scaling lo trovo difficile per qualsiasi scheda quando si parla di RT del resto il DLSS è stato inventato a posta per rendere fruibile qualcosa che era impossibile

Ovviamente il DLSS3 potrebbe spingere ancora oltre queste cose facendo uscire qualche gioco che magari ha talmente tanti effetti in RTX e una grafica cosi bella da volerci anche uan scheda come la 4090

Ma io in giro non vedo nulla del genere per adesso e nemmeno nel prossimo futuro, il pallino dello sviluppo è dettato dal mondo delle console, di veramente "next gen " non ci sta un bel nulla
 
Ultima modifica:
Ma se una 4070ti in Path tracing che ad oggi è la cosa più pesante che c'è con DLSS3 fa in 1440p 85 fps di media, con minime di 75 e massime, nemmeno tanto rare di 105 fps! E parliamo della tecnologia ad oggi più pesante in assoluto! Se in RT normale a qualità ultra/folle, RT al massimo e DLSS a qualità (e DLSS OFF) in Cyberpunk sto mediamente sui 110 fps con rare minime di 90, se in Metro Exodus Enhanced edition sto sui 170 fps tutto maxato anche del RT con DLSS a qualità con picchi da 190 fps, in Control faccio 90/100 fps con DLSS OFF, vorrei sinceramente capire DOVE una 4090 attualmente non è sprecata in 1440p!

è semplicemente sprecata in tutto, complice anche il fatto che viene il più delle volte limitata dal processore, esprimendo quindi performance simili, o cmq poco distanti da una 4080 ad esempio...

motivo per cui mi verrebbe difficile consigliare a qualcuno una 4090 per giocare a 1440p (e addirittura qui si parlava di un 2560x1440), quando con una GPU da 1200€ (la 4080) avrebbero sostanzialmente la stessa identica esperienza ad oggi (tra X anni con Y cpu probabilmente la AD102-300 prenderà il volo, ma in quel momento sicuramente si troverebbe a centinaia di € in meno e/o ci saranno altre GPU ancora superiori, magari anche in termini di features)...

che poi la 4090 sia più prestante nessuno lo mette in dubbio, ma siccome non la si sfrutta al 100% quella potenza, tanto vale sfruttare meglio quei 4-500€ che la separano dalla sorellina minore, prendendosi chessò un monitor migliore, SSD, PSU, RAM, o anche facendosi un week-end fuori casa con compagne/mogli/amici...

molti poi la mettono sul piano della longevità, della serie la 4090 mi durerà un sacco alla mia risoluzione, ma tanto sappiamo tutti che ad ogni generazione l'upgrade si fa a prescindere nel 99% dei casi, quindi...

se poi i soldi non sono assolutamente un problema, uno se ne frega del rapporto prezzo/prestazioni e di ottimizzare la spesa bhe, sono il primo a dire che la 4090 va benissimo a qualsiasi risoluzione, ma per il 99.99% degli utenti è una soluzione da 4K senza se e senza ma...
 
è semplicemente sprecata in tutto, complice anche il fatto che viene il più delle volte limitata dal processore, esprimendo quindi performance simili, o cmq poco distanti da una 4080 ad esempio...

motivo per cui mi verrebbe difficile consigliare a qualcuno una 4090 per giocare a 1440p (e addirittura qui si parlava di un 2560x1440), quando con una GPU da 1200€ (la 4080) avrebbero sostanzialmente la stessa identica esperienza ad oggi (tra X anni con Y cpu probabilmente la AD102-300 prenderà il volo, ma in quel momento sicuramente si troverebbe a centinaia di € in meno e/o ci saranno altre GPU ancora superiori)...

che poi la 4090 sia più prestante nessuno lo mette in dubbio, ma siccome non la si sfrutta al 100% quella potenza, tanto vale sfruttare meglio quei 4-500€ che la separano dalla sorellina minore, prendendosi chessò un monitor migliore, SSD, PSU, RAM, o anche facendosi un week-end fuori casa con compagne/mogli/amici...

molti poi la mettono sul piano della longevità, della serie la 4090 mi durerà un sacco alla mia risoluzione, ma tanto sappiamo tutti che ad ogni generazione l'upgrade si fa a prescindere nel 99% dei casi, quindi...

se poi i soldi non sono assolutamente un problema, uno se ne frega del rapporto prezzo/prestazioni e di ottimizzare la spesa bhe, sono il primo a dire che la 4090 va benissimo a qualsiasi risoluzione, ma per il 99.99% degli utenti è una soluzione da 4K senza se e senza ma...
concordo
 
è semplicemente sprecata in tutto, complice anche il fatto che viene il più delle volte limitata dal processore, esprimendo quindi performance simili, o cmq poco distanti da una 4080 ad esempio...

motivo per cui mi verrebbe difficile consigliare a qualcuno una 4090 per giocare a 1440p (e addirittura qui si parlava di un 2560x1440), quando con una GPU da 1200€ (la 4080) avrebbero sostanzialmente la stessa identica esperienza ad oggi (tra X anni con Y cpu probabilmente la AD102-300 prenderà il volo, ma in quel momento sicuramente si troverebbe a centinaia di € in meno e/o ci saranno altre GPU ancora superiori, magari anche in termini di features)...

che poi la 4090 sia più prestante nessuno lo mette in dubbio, ma siccome non la si sfrutta al 100% quella potenza, tanto vale sfruttare meglio quei 4-500€ che la separano dalla sorellina minore, prendendosi chessò un monitor migliore, SSD, PSU, RAM, o anche facendosi un week-end fuori casa con compagne/mogli/amici...

molti poi la mettono sul piano della longevità, della serie la 4090 mi durerà un sacco alla mia risoluzione, ma tanto sappiamo tutti che ad ogni generazione l'upgrade si fa a prescindere nel 99% dei casi, quindi...

se poi i soldi non sono assolutamente un problema, uno se ne frega del rapporto prezzo/prestazioni e di ottimizzare la spesa bhe, sono il primo a dire che la 4090 va benissimo a qualsiasi risoluzione, ma per il 99.99% degli utenti è una soluzione da 4K senza se e senza ma...
Completamente d'accordo.
 
Ecco, ora ci avviciniamo alla mia domanda.

Quindi il software non è ottimizzato per l'hardware.
Ma si può girare e dire che l'hardware non è ottimizzato per il software.

Se si volesse costruire una ASIC (come quelle per il mining) per quel engine di gioco, cosa si dovrebbe aggiungere/migliorare al 5900x di turno ?

Cioè, i core del 5900x e la 4090 stanno in attesa... di cosa ?
Di dati dalla ram ? Dalla cache ? Di trasferire cose tramite la pcie 4.0 ? Della fine di altri processi che richiedono molti cicli di clock ? 🤔

Questo intendevo, dove sta il limite hardware. Perché deve esserci qualcosa che detta il passo, non è che la cpu vede l'engine e dice "nah, questo lo faccio girare piano e lavoro 1ms si e 2ms no".

Poi magari è impossibile saperlo... ma la domanda era quella.


Vabbé, comunque, di fatto, la cpu può essere il fattore limitante anche senza alcun core vicino al 100%.
Questa cosa non la sapevo 🙄
Beh non è impossibile saperlo. Facendo debugging lo vedresti esattamente dove “si scontra” l’engine del gioco. Questo discorso è complesso, ma come sempre l’analisi online di certi “esperti” è leggerina e basata su scarse conoscenze. Quindi vedono la GPU al 80% e parlano di bottleneck cpu senza analizzare la reale situazione.
 
Ora non ho molto tempo per spiegarmi, però magari mi sto sbagliando io, beninteso 😉

Se la CPU impiega X tempo per renderizzare un singolo frame, facciamo un esempio pratico: 10 millisecondi. Questo significa che il gioco, qualsiasi titolo, il massimo framerate che potrà raggiungere sarà 100 FPS. Se la GPU è in grado di arrivare a tale rendering OK, se non lo è allora viene sotto-sfruttata e si entra nel bottleneck. Come ha detto @Ale3Mac è una questione di IPC. Aggiungendo ulteriori core non migliora perchè è la velocità del singolo compito che blocca visto che non può essere parallelizzata come nelle GPU.
Stai facendo un pastrocchio … il rendering lo fa la CPU o la GPU ? Perché nella stessa frase hai scritto due cose diverse (ti aiuto io, nel gioco il rendering lo fa la GPU). 😉
Il fatto che aggiungere più core non aiuti è slegato dal discorso che stavamo facendo. I giochi oggi come oggi scalano mediamente su 6 core al massimo. Qualcuno arriva anche ad 8… ma per quanto in futuro la situazione possa cambiare , il gaming non è un genere di applicazione dove si può parallelizzare tutto. Torniamo al discorso iniziale: il 5900X non è una CPU da gaming perché gran parte dei suoi core non saranno usati mai (e li arriverà per primo il limite di IPC, questo è vero).

Mah, non sono così sicuro che con le nuove uscite non possa cambiare la situazione
Dipende da come verranno sfruttati i nuovi engine e quanto si andrà a caricare il "calcolo" sulle gpu
Per quanto anche io veda tale scheda come "da 4k" non escludo che nel prossimo anno non cominci a diventare sfruttabile anche a 1440p, soprattutto se si pensa di maxare i titoli sfruttando la risoluzione nativa (senza barbatrucchi di upscaling)

E comunque il "CPU limited" è sempre dipeso dal gioco e sempre lo sarà
Come faceva notare @wulff73 se prendi un simulatore il peso sulla cpu è molto più alto di altri titoli
Infatti impossibile valutare gli sviluppi sul medio termine: i giochi potrebbero anche cambiare. Quando si acquista hw gaming si può fare una stima approssimata sui 2/3 anni al massimo… poi diventa un “leggere le carte” 😅
 
Ultima modifica:
non usare tecniche di scaling lo trovo difficile per qualsiasi scheda quando si parla di RT del resto il DLSS è stato inventato a posta per rendere fruibile qualcosa che era impossibile
Esatto, ma proprio per questo ti "scontri prima" con la cpu
Perché se non usi il DLSS hai un framerate che la cpu è tranquillamente in grado di gestire e sposti il "tappo" verso la scheda video

Il succo come sempre è che si preferisce un elevato framerate e grazie alla bontà dei barbatrucchi usati attualmente si può avere senza perdere qualità
Io, sarò vecchia scuola, ma considero un compromesso attivare una tecnica di upscaling indipendentemente da quanto sia buona e pertanto preferirei puntare sul render nativo se comprassi una "top di gamma"

Ma io sono anche uno che gioca a titoli single player e poco frenetici, pertanto ho sempre dato priorità alla grafica che agli fps
Su alcuni titoli addirittura mi accontento anche di stare sui 50 fps (perché il mio monitor ha sincronia adattiva fino a 40 hz ed andare ancora più sotto può dare qualche problema in più) pur di alzare un'impostazione che merita
Alla fine mi basta percepirlo fluido e non corro dietro a centinaia di fps quindi i vari DLSS/FSR/XeSS non mi hanno mai attirato più di tanto... (ma ripeto, è una visione mia personale)
 
Completamente d'accordo.

che poi nel mio discorso ho tirato in ballo la 4080, ma anche quella a conti fatti sarebbe una scheda eccessiva, si potrebbe tranquillamente scendere alla 4070/4070Ti e giocare ugualmente benissimo a tutto a quella risoluzione ormai (tra DLSS e FG), con frame pure in eccesso nella maggior parte dei casi..

in tal caso con il risparmio vs 4090 ci scapperebbe quasi una piattaforma AM5/LGA-1700 completa (CPU/MB/RAM), non è proprio trascurabile diciamo la cosa...

ovviamente non critico chi la prende, se può permetterselo e lo soddisfa fa benissimo a farlo, il mio era un discorso generale rivolto più a chi punta all'ottimizzazione prestazioni/spesa...
 
che poi nel mio discorso ho tirato in ballo la 4080, ma anche quella a conti fatti sarebbe una scheda eccessiva, si potrebbe tranquillamente scendere alla 4070/4070Ti e giocare ugualmente benissimo a tutto a quella risoluzione ormai (tra DLSS e FG), con frame pure in eccesso nella maggior parte dei casi..

in tal caso con il risparmio vs 4090 ci scapperebbe quasi una piattaforma AM5/LGA-1700 completa (CPU/MB/RAM), non è proprio trascurabile diciamo la cosa...

ovviamente non critico chi la prende, se può permetterselo e lo soddisfa fa benissimo a farlo, il mio era un discorso generale rivolto più a chi punta all'ottimizzazione prestazioni/spesa...
ma qui nessuno critica chi prende una 4090 anzi se puoi permettertelo uno fa benissimo a prendersela.

Si criticano alcune discussione tecniche che non stanno nè in cielo nè in terra tipo "10 GB di VRAM per il QHD non bastano"

oppure appunto quando si parla di "collo sul processore " se prendi una 4090 su un gioco con un engine vecchio con DLSS.....

qui nessuno critica nemmeno che ti metti la 4090 in QHD o in full hd se ti garba sono le "giustificazioni" che fanno orrore
 
Pubblicità
Pubblicità
Indietro
Top