UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Per la questione versioni Ti, Super, Megaiperultra, 10Gb, 20Gb, 300Tera .. ecc ecc ecc

Nvidia sta adottando la tattica di Rockstar con GTA. Quante versioni di GTA 5 sono uscite? Una marea. Mancava solo che uscisse pure per il forno a microonde da giocare sullo schermino a led col timer.
Eppure i fissati, i funzs, chiamateli come vi pare hanno preso versione per 360/PS3, versione PS4/ONE (eh dici che non lo gioco con le nuove scatolette!) e versione PC (cavolo pc master race tutto ultra fottesega!). Mo che esce su PS5/SERIES X lo compreranno pure lì !!!!!!!
Questo per dire che se esce la 3080 da 10Gb, poi dopo 2 mesi quella da 30Gb, poi dopo 3 mesi ancora la versione Ti, i vari fissati la cambieranno in continuazione perché?!? Perché Nvidia ha deciso così semplice. ?

Quando esce sta benedetta versione maggiorata o Ti o quello che è basta farsi un giretto nei vari mercatini o su Subito e si fanno gli affari raga! Non rompetevi la testa ora sbattendovi a destra e a manca alla ricerca spasmodica della gpu. Tempo al tempo.

Questione 3090 : la scheda non è per giocare!! Ma sempre per il discorso fatto prima Nvidia l'ha chiamata RTX piuttosto che Titan perché le Titan non se le caga** nessuno anche se ripeto non sono gpu per giocare...ma con questa piccola manovra vedrai che i suddetti fissati sono già pronti a strisciare la carta di credito. E ce ne sono parecchi che si fanno abbindolare dal marketing.
Quotone, anzi dico che la gente non comprerà la nuova da 20gb perchè a deciso così nvidia, ma perchè non hanno idea di cosa comprano e gli basta leggere che la loro ha 10gb e ce n'è una in vendita con 20gb per andare nel panico. che poi 20gb non servano una mazza loro neanche lo sanno o si pongono il problema, l'importante è avere l'ultima versione
 
NVIDIA-GeForce-RTX-30-Series-Deep-Dive_RTX-3080_RTX-3090_RTX-3070_Ampere-GA102_Ampere-GA104_GPU_Graphics-Cards_70-1480x833.png

NVIDIA-GeForce-RTX-30-Series-Deep-Dive_RTX-3080_RTX-3090_RTX-3070_Ampere-GA102_Ampere-GA104_GPU_Graphics-Cards_72-1480x833.png

Riprendo questo post di qualche settimana fa: guardate il framerate medio reale su Control 8k (dlss, native resolution 1440p) in confronto ai 57fps dichiarati.
 
Riprendo questo post di qualche settimana fa: guardate il framerate medio reale su Control 8k (dlss, native resolution 1440p) in confronto ai 57fps dichiarati.

Sembra tutto poco giocabile in 8K, addirittura rimane per alcuni secondi tra i 20 e i 30 FPS (quindi a cosa serve avere tanti dettagli ma una fluidità inesistente?)

Comunque lo stesso tipo afferma che si perde nella marea di dettagli in 8K. Probabilmente non va bene per i giocatori competitivi, troppi dettagli che si muovono possono distrarre.
 
pensare akll'8k adesso direi che è molto prematuro, anche qui molto marketing di mezzo e sì è figo potere mettere un gioco su uno che ha la TV 8k

Ma prevedo che pochi le utilizzeranno è nulla più nulla meno che una prova di forza
 
Sembra tutto poco giocabile in 8K, addirittura rimane per alcuni secondi tra i 20 e i 30 FPS (quindi a cosa serve avere tanti dettagli ma una fluidità inesistente?)

Comunque lo stesso tipo afferma che si perde nella marea di dettagli in 8K. Probabilmente non va bene per i giocatori competitivi, troppi dettagli che si muovono possono distrarre.

Forse hai frainteso il mio messaggio, la parte che ci interessa sono i primi secondi da dove te l' ho linkato e l' ultima parte: lascia perdere il passaggio a 20fps con risoluzione nativa 5k.
Il framerate medio in quella sessione è 50-51fps contro i 57 dichiarati: è il 10%, tanto se si pensa a quanto poco di meno vada la rtx 3080.

nb: nei giochi con dlss, la risoluzione nativa 1440p rende inutili i 24gb di memoria.
 
Ultima modifica:
Quotone, anzi dico che la gente non comprerà la nuova da 20gb perchè a deciso così nvidia, ma perchè non hanno idea di cosa comprano e gli basta leggere che la loro ha 10gb e ce n'è una in vendita con 20gb per andare nel panico. che poi 20gb non servano una mazza loro neanche lo sanno o si pongono il problema, l'importante è avere l'ultima versione

basta vedere qunati solo quì continuano a dire che 10gb sono pochi e non futur proof :V
 
A parer mio l'uso della VRAM diminuirà anziché aumentare a parità di risoluzione, è ovvio che in 8k servano 20GB perché il peso delle texture è nettamente superiore ma in 4k o meno cercheranno di ottimizzare al meglio.
Anche perché le memorie GDDR6x costano un botto.
E' un collo di bottiglia "enorme" il trasferimento di dati rispetto al diretto accesso in memoria, per due motivi:
1) l'enorme differenza di velocita' di aceesso: via PCIe 4.0 si puo' trasferire circa 64GB/s (e gli SSD son 10 volte piu' lenti), la bandwidth della 3080 e' di 760GB/s
2) Il fatto che l'elaborazione dei dati trasferiti non puo' avvenire in modo asincrono, ma bisogna attendere che tutta la quantita' arrivi alla GPU prima che la stessa faccia altre elaborazioni su quei dati e/o in parallelo (per cio' che riguarda quel "context").
Senza contare che il trasferimento necessita anche di alcune pre-allocazioni memoria (lavoro supplementare)

Quindi nessun programmatore (se puo') lascia dati fuori dalla GPU da caricare di volta in volta: precarica tutto cio' che riesce, in modo da avere tutto disponibile li' dove deve elaborarlo (parlo di textures, mappe, preallocazione di farme buffers, etc... che avviene nella famosa fase di "caricamento" pre scenario).
Durante il gioco, i dati che "passano" tra CPU e GPU e' la minima possibile, e riguardano solo le evoluzioni del gioco stesso: l'aggiornamento delle posizioni sulla mappa, le varie matrici di trasformazioni, etc... ma comunque si parla di poche MB di dati, che vengono passati ogni frame.

@crimescene ha ragione nel dire che 10GB sono davvero tanti, per i giochi.
C'e' pero' anche da considerare il fatto che alcune tecniche (shadow, AmbientOcclusion, Antialiasing, etc) possono utilizzare frame buffer intermedi che sono 2x o 4x (sia in orizzontale che in verticale) rispetto al DrawBuffer. (ed alcuni antialiasing anche piu').
Per esempio, se sono in 4K, una "buona" ombra la calcolo in un framebuffer intermedio da 8K (piu' relativo DepthBuffer da 8K 32 bit), in modo che quando la applico sulla scena la GPU possa fare un subsampling (con interpolazione lineare) e "smussare" le imperfezioni sui bordi.
Ma anche considerando questo: 10GB son davvero tanti da saturare in questo modo.

Una cosa che pero' sta avvenendo e' l'utilizzo del GPU-compute anche nei giochi (per sgravare la CPU e il datatransfer tra CPU/GPU)... dato che cio' puo' avvenire in modo asincrono (visto che il GPU-compute lavora in contex differente, diverso da quello del gioco).
Per es. l'evoluzione di un sistema di particelle, o le posizioni di 10000 omini sulla mappa, puo' essere delegato a un context diverso sulla GPU e ritrovaresi i dati gia' pronti, senza doverli trasferire intra-freme.

Ma ripeto e do ragione a @crimescene 10GGB sono davvero, davvero tanti da saturare (oggi).

Scusatemi... mi son dilungato troppo ... ?
 
grazie per la preziosa spiegazione dettagliata, prevedi che ci sia qualche minima ragione nel futuro dei giochi che possa far richiedere più memoria (alle risoluzioni attuali)?
 
E' un collo di bottiglia "enorme" il trasferimento di dati rispetto al diretto accesso in memoria, per due motivi:
1) l'enorme differenza di velocita' di aceesso: via PCIe 4.0 si puo' trasferire circa 64GB/s (e gli SSD son 10 volte piu' lenti), la bandwidth della 3080 e' di 760GB/s
2) Il fatto che l'elaborazione dei dati trasferiti non puo' avvenire in modo asincrono, ma bisogna attendere che tutta la quantita' arrivi alla GPU prima che la stessa faccia altre elaborazioni su quei dati e/o in parallelo (per cio' che riguarda quel "context").
Senza contare che il trasferimento necessita anche di alcune pre-allocazioni memoria (lavoro supplementare)

Quindi nessun programmatore (se puo') lascia dati fuori dalla GPU da caricare di volta in volta: precarica tutto cio' che riesce, in modo da avere tutto disponibile li' dove deve elaborarlo (parlo di textures, mappe, preallocazione di farme buffers, etc... che avviene nella famosa fase di "caricamento" pre scenario).
Durante il gioco, i dati che "passano" tra CPU e GPU e' la minima possibile, e riguardano solo le evoluzioni del gioco stesso: l'aggiornamento delle posizioni sulla mappa, le varie matrici di trasformazioni, etc... ma comunque si parla di poche MB di dati, che vengono passati ogni frame.

@crimescene ha ragione nel dire che 10GB sono davvero tanti, per i giochi.
C'e' pero' anche da considerare il fatto che alcune tecniche (shadow, AmbientOcclusion, Antialiasing, etc) possono utilizzare frame buffer intermedi che sono 2x o 4x (sia in orizzontale che in verticale) rispetto al DrawBuffer. (ed alcuni antialiasing anche piu').
Per esempio, se sono in 4K, una "buona" ombra la calcolo in un framebuffer intermedio da 8K (piu' relativo DepthBuffer da 8K 32 bit), in modo che quando la applico sulla scena la GPU possa fare un subsampling (con interpolazione lineare) e "smussare" le imperfezioni sui bordi.
Ma anche considerando questo: 10GB son davvero tanti da saturare in questo modo.

Una cosa che pero' sta avvenendo e' l'utilizzo del GPU-compute anche nei giochi (per sgravare la CPU e il datatransfer tra CPU/GPU)... dato che cio' puo' avvenire in modo asincrono (visto che il GPU-compute lavora in contex differente, diverso da quello del gioco).
Per es. l'evoluzione di un sistema di particelle, o le posizioni di 10000 omini sulla mappa, puo' essere delegato a un context diverso sulla GPU e ritrovaresi i dati gia' pronti, senza doverli trasferire intra-freme.

Ma ripeto e do ragione a @crimescene 10GGB sono davvero, davvero tanti da saturare (oggi).

Scusatemi... mi son dilungato troppo ... ?
Vero, però iniziamo a ragionare con il 5.0 in vista futura che raddoppiamo già la velocità, inoltre aggiungiamo il diverso tipo di compressione e appunto la nuova tecnologia che non va a toccare la cpu. Ovviamente tutte le scene principali saranno caricate in memoria, però questo sistema permette di caricare e scaricare dati minori solo ed esclusivamente quando servono.
Aggiungiamo che anche non ci fosse questa nuova tecnologia i 10GB sono difficili da saturare, sembra ovvio che in futuro il problema della memoria diminuirà anziché aumentare.

Questo è ciò che nella mia ignoranza ho pensato, tu sicuro ne sai di più e puoi spiegarci il tuo punto di vista (suppongo professionale).
 
Di questo passo,nn si possono fare previsioni su una 3060.
Attualmente paghi una 3080 circa 850/900 euro in preorder cioè oltre 150 euro in più e non si sà nemmeno quando la ricevi..
Figuriamoci una scheda che nn è nemmeno stata annnumciata

Inviato dal mio CPH1917 utilizzando Tapatalk
Si ovvio che ora sono solo speculazioni, ma se la founders della 3070 sta a 519, vuol dire che la founders della 3060 starà sicuramente a meno di 340 euro, quindi le custom della 3060 saranno più o meno sui 400 euro, almeno spero.
 
pensare akll'8k adesso direi che è molto prematuro, anche qui molto marketing di mezzo e sì è figo potere mettere un gioco su uno che ha la TV 8k

Ma prevedo che pochi le utilizzeranno è nulla più nulla meno che una prova di forza

Il fatto è che qui parliamo di 4-8k quando dai dati viene fuori che tipo il 95% delle persone giocano ancora su monitor fullHD, e magari in tanti si vanno a prendere una 3070-3080 senza sapere minimamente cosa stanno facendo lol
 
Vero, però iniziamo a ragionare con il 5.0 in vista futura che raddoppiamo già la velocità, inoltre aggiungiamo il diverso tipo di compressione e appunto la nuova tecnologia che non va a toccare la cpu. Ovviamente tutte le scene principali saranno caricate in memoria, però questo sistema permette di caricare e scaricare dati minori solo ed esclusivamente quando servono.
Aggiungiamo che anche non ci fosse questa nuova tecnologia i 10GB sono difficili da saturare, sembra ovvio che in futuro il problema della memoria diminuirà anziché aumentare.

Questo è ciò che nella mia ignoranza ho pensato, tu sicuro ne sai di più e puoi spiegarci il tuo punto di vista (suppongo professionale).
A parita' di condizioni, se le condizioni fossero statiche, ti darei ragione.

Il problema e' che si tende a rendere smpre piu' realistico il gioco, e man mano che la velocita' dell GPU aumenta... dato che si possono elaborare ancora piu' dati... se posso... inserisco ancora piu' dettagli, per far si' che il mio gioco sia il piu' reale possibile.
Ovviamente metto a disposizoine textures di diverse dimensioni, anche per GPU low-level... ma si sa che gicatori vorrebbero sempre dettagli ULTRA... ?

C'e' da considerare anche quanta elaborazione (GPU-compute) verra' spostata nei giochi (NVidia ci punta molto)... ma non e' una cosa che si imporvvisa dall'oggi al domani, questa: bisogna ristrutturare il progetto, non e' come aggiungere una texture piu' grande.

in parte ho risposto anche @crimescene
Aggiungo personalmente credo che occorrera' del tempo prima di considerare 10GB "stretti"... se non altro perche' l'evoluzione software non e' proprio immediato: insomma occorre del tempo per fare un gioco "come si deve" ... ed oltretutto oggi la stragrande maggioranza di GPU ha tra i 4 e gli 8GB.
Credo che arrivera' la nuova generazione di GPU, prima di considerare pochi (nei giochi) i 10GB (ma questo e' un parere personale)

Anche io credo che la 20GB non costera' SOLO poco di piu'... in fondo devono colmare un GAP tra 3080 e 3090 di quasi 800 euro.

E c'e' ancora l'incognita AMD... in tutto questo molto dipendera' dalla qualita' della nuova GPU "rossa"

P.S.
Vero, andiamo verso il PCIe 5.0 ... ma credo che quando avremo il 5.0, anche le top VRAM non saranno piu' le GDDR6X.
 
Ultima modifica:
Aggiungo personalmente credo che occorrera' del tempo prima di considerare 10GB "stretti"... se non altro perche' l'evoluzione software non e' proprio immediato: insomma occorre del tempo per fare un gioco "come si deve" ... ed oltretutto oggi la stragrande maggioranza di GPU ha tra i 4 e gli 8GB.
Credo che arrivera' la nuova generazione di GPU, prima di considerare pochi (nei giochi) i 10GB (ma questo e' un parere personale)

Si infastti è quello che penso anche io prima che iniziano a divettare davvero necessari più di 10GB non avrà più senso prendere questo tipo di chip in quanto in commercio ci sarà di meglio..

Grazie di nuovo per la spiegazione
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top