UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Ma tu non eri quello pronto al d1 sul sito nvidia che svendeva la sua 2060 ti a 600 euro per prendere una 3080?
beh pensavo di prenderla a 700€ che per quel prezzo poteva anche andare bene ma sappiamo tutti che pochi sono stati in grado di prenderla a quel prezzo se non con molta pazienza.
mi sono accorto solo dopo leggendo meglio le reviews che la 3080 era un piccolo upgrade con qualche downgrade.
 
Il video spiega molto bene, visivamente, a cosa serve e i vantaggi che si hanno.
Tecnicamente ne avevamo parlato al lancio, ed era (per me) molto esauriente il link sul DLSS3 che aveva inserito @pribolo, dove si vede come questa generazione avviene, pixel per pixel... o meglio, quadratino per quadratino, perche' i vettori di movimento, come per i video, riguardano un'area.


La domanda importante appunto e': "perche' sia stato limitato alla serie 4000?"... a cui ancora pero' nessuno ha dato una risposta "concreta".
Dico questo perche' nel video che hai postato (e anche altrove) si parla di Optical Flow Accelerator.
(Anche questo discusso con @pribolo, qui e qui.)
Ma questo Optical Flow Accelerator (con relativo SDK: Software Development Kit) esiste gia' fin dalla serie Turing e cito dalla pagina NVidia: The NVIDIA Turing architecture introduced a new hardware functionality for computing optical flow between a pair of images with very high performance.

Cio' che c'e' di piu' nel DLSS3 e' che questa tecnica di generazione "intra-frame" viene integrata anche col raytracing (RTX): lo spiega bene la pagina deicata al DLSS3, dove si parla dell'ombra del motociclista.

Pero', per il momento, nessuno ci ha detto quale hardware "dedicato" ci sia sulla serie 4000 per cui questa tecnica non possa essere riprodotta anche sulle serie RTX precedenti.
E' un "nuovo" Optical Flow Generator/Accelerator?
O semplicemente il DLSS3 puo' essere riprodotto, ma non e' cosi' "fluido" come su 4000 (grazie al maggior numero di TensorCores)... quindi e' stato semplicemente "inibito" per le RTX precedenti?



P.S.
A pensar male qualcuno potrebbe dire: "semplice scelta di marketing"
Ok e questo lo abbiamo capito visto che ne abbiamo già parlato. Ma tu cosa ne pensi personalmente ?
Perché non ti sei ancora esposto a meno che me lo sono perso.
--- i due messaggi sono stati uniti ---
beh pensavo di prenderla a 700€ che per quel prezzo poteva anche andare bene ma sappiamo tutti che pochi sono stati in grado di prenderla a quel prezzo se non con molta pazienza.
mi sono accorto solo dopo leggendo meglio le reviews che la 3080 era un piccolo upgrade con qualche downgrade.
Perché dici piccolo upgrade con qualche downgrade ? Sono curioso, mi sfugge qualcosa.
( sono serio, semplice curiosità ).
 
Perché dici piccolo upgrade con qualche downgrade ? Sono curioso, mi sfugge qualcosa.

all'inizio la 3080 aveva meno VRAM della 2080Ti.
nei rendering 11GB di VRAM sono già pochi e limitanti al giorno d'oggi, la 3080 aveva solo 10GB e la 3070 8GB.
negli ultimi giochi abbiamo visto che 11GB sono pochi anche per il gaming in 4K.
 
all'inizio la 3080 aveva meno VRAM della 2080Ti.
nei rendering 11GB di VRAM sono già pochi e limitanti al giorno d'oggi, la 3080 aveva solo 10GB e la 3070 8GB.
negli ultimi giochi abbiamo visto che 11GB sono pochi anche per il gaming in 4K.
come dicevi prima tu la volpe e l'uva spiegazione semplice
 
E' molto semplice siccome sei stato mesi ad attendere si fare un upgrade sulla 3080 ( e ce ne sono le prove) e nons ei riuscito a prenderla, adesos dici che fa schifo

Ovviamente se fossi in te e dovessi fare un upgrade adesso chiaramente vai sulla nuova generazione, questo non significa affato che la nuova gen sia davvero conveniente.

Certo la 4090 ha un bell'incremento di cuda, un processo produttivo migliore, ma a che costo? Ma il problema nonè quello in quanto le xx90 sono solitamente schede professionali che potrebbero costare anche di più il problema sono le xx80

Una 4080 12gb è letteralmente una presa in giro non perchè lo dico io lo dicono tutti.
 
@techsaskia Ci tengo a precisare che sono d'accordo con te che 10GB e 11GB non sono il massimo per il 4K anche solo come sensazione di future proof, pero ad oggi a parte Doom Eternal e Horizon Zero Dawn non ci sono giochi che saturano più di 10Gb di vram. Poi come già detto qualche post fa, basta sempre abbassare di una tacca le texture, a volte gli sviluppatori mettono settaggi folli come psyco, uber ultra ecc.
Infatti secondo me la rtx 3080 12GB è stata una paraculata da parte di nvidia.

Bisogna però tenere a mente e questo è importantissimo, che Horizon Zero dawn è un caso a parte. Un gioco per ps4 che al suo lancio su pc era un disastro. L'incompetenza degli sviluppatori hanno fatto si che a settaggi massimi quel gioco riesca a saturare ( parlo di memoria dedicata non allocata ) ben 11Gb di vram in 4K e 10GB in 1440p. Non è normale, persino cyberpunk 2077 tutto al max con raytracing a palla non riesce a saturare più di 8/8.5GB di vram in 4K.
Mentre Doom eternal ha i settaggi video da sborone, cioè se imposti tutto su Nightmare ( superiore ad ultra per intenderci ) il gioco va da dio e non saturi tutta quella vram, mentre se fai appunto lo sborone e metti ultra nightmare, a parte non aggiungere quasi nulla graficamente, ammazzi il frame rate e saturi vram senza senso.
Quindi sono due casi estremamente isolati e unici per il momento. Io penso che 10GB di vram diventeranno un limite dopo che lo sarà diventato la gpu. Sarà prima la potenza bruta della gpu a diventare obsoleta in 4k e non la vram.
Mio personalissimo pensiero.
--- i due messaggi sono stati uniti ---
 
Ultima modifica:
@techsaskia Ci tengo a precisare che sono d'accordo con te che 10GB e 11GB non sono il massimo per il 4K anche solo come sensazione di future proof, pero ad oggi a parte Doom Eternal e Horizon Zero Dawn non ci sono giochi che saturano più di 10Gb di vram. Poi come già detto qualche post fa, basta sempre abbassare di una tacca le texture, a volte gli sviluppatori mettono settaggi folli come psyco, uber ultra ecc.
Infatti secondo me la rtx 3080 12GB è stata una paraculata da parte di nvidia.

Bisogna però tenere a mente e questo è importantissimo, che Horizon Zero dawn è un caso a parte. Un gioco per ps4 che al suo lancio su pc era un disastro. L'incompetenza degli sviluppatori hanno fatto si che a settaggi massimi quel gioco riesca a saturare ( parlo di memoria dedicata non allocata ) ben 11Gb di vram in 4K e 10GB in 1440p. Non è normale, persino cyberpunk 2077 tutto al max con raytracing a palla non riesce a saturare più di 7.5/8GB di vram in 4K.
Mentre Doom eternal ha i settaggi video da sborone, cioè se imposti tutto su Nightmare ( superiore ad ultra per intenderci ) il gioco va da dio e non saturi tutta quella vram, mentre se fai appunto lo sborone e metti ultra nightmare, a parte non aggiungere quasi nulla graficamente, ammazzi il frame rate e saturi vram senza senso.
Quindi sono due casi estremamente isolati e unici per il momento. Io penso che 10GB di vram diventeranno un limite dopo che lo sarà diventato la gpu. Sarà prima la potenza bruta della gpu a diventare obsoleta in 4k e non la vram.
Mio personalissimo pensiero.
--- i due messaggi sono stati uniti ---
Far Cry 6 con le texture high res è molto più bello e 11GB non bastano.
Se è così su un gioco sviluppato su un engine vecchio, immaginati con i giochi in UE5 in arrivo nel 2023 :)
 
Ok e questo lo abbiamo capito visto che ne abbiamo già parlato. Ma tu cosa ne pensi personalmente ?
Perché non ti sei ancora esposto a meno che me lo sono perso.
L'avevo scritto, parlando anche di RND (RayTracing Denoise) e RTXDI (RTX Direct Illumination), che secondo me, tecnicamente, "sarebbe" possibile utilizzare il DLSS3 anche su RTX 3000 (almeno).
Uso il condizionale, perche', come sappiamo il DLSS3 e' una tecnologia chiusa (Libreria CUDA), a differenza di RND e RTXDI che sono moduli software presenti su GitHub

L'unico motivo per cui non si possa fare e' che ci sia un nuovo modulo hardware che si occupa di questo.
Ma a mio avviso non sarebbe un nuovo Optical Flow Accelerator, in quanto quello si occupa del flusso delle immagini (video), e non avrebbe senso "appesantirlo" (nell'ottica della semplificazione e della specializzazione) con un'estensione che generi vettori di movimento anche per il 3D.
Piuttosto se ci fosse qualcosa di "nuovo" che lo affianchi (dal punto di vista hardware)... ma nessuno lo ha sbandierato (e figurati se non lo avrebbero fatto)
Personalmente pero' penso piu' a un modulo software (CUDA), che trae giovamento dal maggior numero di TensorCores (e magari anche dalla maggiore L2 cache)... e che quindi non risulti fluido (o non produca performance migliorative) sulla serie 3000

N.B.
Per dovere di cornaca c'e' da dire che le specifiche CUDA passano da 8.6 (RTX3000) a 8.9 (RTX4000), per cui qualche piccola modifica interna c'e', ma ancora non e' dato sapere quale... anche le tabelle delle specifiche 8.9 nella pagina wiki sono ancora vuote (da aggiornare).
 
Personalmente pero' penso piu' a un modulo software (CUDA), che trae giovamento dal maggior numero di TensorCores (e magari anche dalla maggiore L2 cache)... e che quindi non risulti fluido (o non produca performance migliorative) sulla serie 3000
Ho pensato anche io questa cosa, che poi spiegherebbe l'incremento folle di tensor core e memoria cache, però rimane comunque il dubbio. Spero che Gamer nexus ( che odia abbastanza nvidia ) si metta ad analizzare questa situazione nei minimi dettagli dopo che avranno tra le mani le rtx 4000.
 
La mia curiosità è vedere se renderanno compatibile il DLSS 3 anche se ovviamente non in modo totale per via di alcune specifiche mancanti, anche le serie RTX precedenti
 
Ho pensato anche io questa cosa, che poi spiegherebbe l'incremento folle di tensor core e memoria cache, però rimane comunque il dubbio. Spero che Gamer nexus ( che odia abbastanza nvidia ) si metta ad analizzare questa situazione nei minimi dettagli dopo che avranno tra le mani le rtx 4000.
A sostegno di questa tesi c'era anche questo articolo che aveva postato @techsaskia:

Dove si parla (da parte di un non ben identificato portavoce di NVIdia) di nuova generazione di TensorCores 4.0 e per questo l'impossibilita' dell'uso del DLSS3 nella serie 3000 (ma sarebbe possibile solo un uso parziale)
Ma che io sappia (poi posso anche sbagliarmi) RTX 4000 non introduce nuovi tipi di dati (cosi' come e' avvenuto per Ampere con TF32 e BFloat16, per esempio)... per cui immagino ci sia semplicemente una ottimizzazione diversa, per i TensorCores 4.0, da parte del compiler... quindi quell'affermazione non giustificherebbe l'impossibilita' di utilizzare il DLSS3 su Ampere
 
per cui immagino ci sia semplicemente una ottimizzazione diversa, per i TensorCores 4.0, da parte del compiler... quindi quell'affermazione non giustificherebbe l'impossibilita' di utilizzare il DLSS3 su Ampere
Io immagino sia semplicemente MARKETING. E non so perché ma ho la vaga sensazione che SEMMAI annunceranno una 4070, la 4080 falsa sparirà dagli schemi..poi magari mi sbaglio..nvidia è capace di tutto
 
Pubblicità
Pubblicità
Indietro
Top