UFFICIALE Nvidia RTX 5000: Blackwell

Pubblicità
Non più come prima, te ne accorgi se guardi per bene com'è fatta l'architettura, te l'ho cercato di spiegare terra terra prendendo solo una peculiarità delle nuove, ossia, lo scarso aumento del troughput a livello geometrico.
Nessuno mette sullo stesso piano raster e Path, sono pochissimi i giochi PT, ma le verdi sono nettamente avanti a parità di fascia (9070xt-5070ti) le medie sono del +60-70% e questo è hardware non fuffa, il RT comincia ad essere EMBEDEED in alcuni titoli (segno che sta diventando importante) anche se molto approssimato e leggero per renderlo fruibile anche su sistemi meno potenti, di sciuro chi spende 900-1000 euro il RT lo cerca e lo considera, altrimenti si spende meno, quindi 70ti è un prodotto che ti fa giocare in RT ma pure il PT in 2560x1440 DLSS quality lo gestisce, è quanto basta per far entrare in scena il compromesso chiamato 9070xt a 750 euro, rinunciando ad un pò di performance RT, cancellando dalla mente ogni buona intenzione di attivare il PT e non pensando al DLSS4, ma valutare l'alternativa.

IMHO se una 9070xt vale 750 euro, la 5070ti può valere massimo 900, ma questa è una visione soggettiva mia personale.

Volente o nolente la 70ti è più veloce nel complesso (rt-pt-raster) guardando le medie, questo è chiaramente OGGETTIVO.

I fanboy sono altri, quelli che magari pensano 9070xt=5070ti per finire ad accostarla con la 5080 con i soliti cherrypicking, scheda che gioca un altro campionato, +40% in RT e 2x in PT, ma non si salva neanche lei, visto che risulta sempre un cesso (la 80) costa troppo per quel che offre e ritengo migliore 70ti nel rapporto price/perf.

Io le cose le analizzo, quando dico (e ho sempre detto) che la 5080 è una mezza ciofeca ed è quello che è, o quando scrivevo che 5080 super sarebbe uscita con la stessa conta di cuda della 80 attuale vanilla ma con 24gb (moduli da 3gb) e stesso gb203 e che non avrebbe mai usato GB202 per creare una sorta di 5080ti con 14k cc 320/20gb o 16k 384/24gb.
Rumor di ieri, quella sarà la 5080 super.
condivido la tua analisi, infatti sono tra quelli che pensa che amd abbia fatto bene a non proporre una scheda di fascia alta, oltre una certa spesa è giusto non accettare compromessi. la 9070 xt è un buon compromesso perchè per prezzo e fascia di utenza è ben posizionata.
vedremo quale sarà l'andazzo dellîndustria videoludica, certo è chiara la direzione in cui spinge nvidia, amd è obbligata a seguire, auguriamoci che lo faccia bene perchè questo è nell'interesse di chi compra, sia chi compra verde che chi compra rosso.
 
Infatti ieri sono andato a vedermeli bene i 32'' 4k 16:9 e boh... certo definiti ma quel rapporto è duro da digerire una volta passato a 21:9, il G8 rimane figo sempre IMHO è lo SWEETSPOT immersione/richieste risorse hardware da parte della gpu/risoluzione.
Optavo anche per il g9 49'' 32:9 che mi viene poco (760) ma anche li, rimango appeso alla stessa densità pixel 109 ppi e sotto il DLSS quality a 1440p non ci voglio scendere, quindi è comunque bello tosto da gestire.
Non lo vedo un upgrade a 360gradi, cerco uno schermo denso in primis, purtroppo o per fortuna ho una vista da falco.
Secondo me con la 5080 si può rimanere solo in 1440P, io non rinuncerei mai all'UW, affiancherei un 32 4K che per alcuni giochi va bene la 5080 per altri no si scende a compromessi ma di solito il monitor lo si tiene molto di più di una GPU quindi ti ritrovi comunque un pannello che sfrutterai in futuro.
 
Il punto non è questo, il punto è che ormai valutare una scheda solo in performance raster è un metodo obsoleto e poco attinente alla realtà per utilizzare un eufemismo.
La rispiego per l'ennesima volta, a nvidia della performance raster non interessa proprio, ma questo l'ha fatto capire già a partire dal 2018 con le Rtx 2080ti, basta guardare come negli anni non sia aumentato esponenzialmente il valore di pixel fillrate, per via del fatto che la rasterizzazione x gpc è sempre a 16 pixel.
Un gpc può elaborare fino a 16 pixel (rop's) e questo valore se guardo nel corso degli anni è rimasto immutato dai tempi di maxwell.
Quindi il back-end della scheda è rimasto debole, le rop's sono aumentate per via dell'aumento del numero di GPC, ed il pixellfill è la moltiplicazione della frequenze del core per il numero rop's.
Le rop's principalmente venivano sforzate quando si applicavano filtri AA pesanti, tipo MSAA 4x/8X , difatti i chip di punta come (esempio) 980ti/1080ti staccavano di brutto i vecchi chip xxx04 sulle xx80 appena si aumentava il computo, oggi MSAA non esiste più praticamente, la strada è inversa, si tent adi alleggerire il computo con il DLSS, non di appesantirlo.

Come dicevo se guardo indietro mi accorgo che:
Kepler 8 pixel/rop's x gpc,
maxwell 16 rop's per gpc, fino ad oggi che abbiamo sempre 16 pixel con le 5000.
In 10 anni non hanno portato i pixel a 32, come mai?

Il chip GB202 della 5090 ha 12 gpc (con all'interno 8tpc con 256cc ciascuno) ma essendo un cut perde un GPC quindi 11 e vengono disabilitati alcuni tpc, per questo perde 16 pixel, quindi la conta scende a 176 rop's.

La 5080 ha 7 GPC full, quindi se moltiplichi per 16 le rop's sono 112.

Se nel tempo nvidia avesse puntato alla rasterizzazione, molto probabilmente avrebbe aumentato il blocco dei pixel/rop's portandolo a 32 (il doppio) portando cosi 5090 a 352 rop's e 5080' a 224, con tutt'altre prestazioni a livello geometrico e quindi elevare quelle che oggi sono le performance generali.
Questo ovviamente comporta limiti di spazio nel die, e se già con la 5090 sei a 750mm2 (limite del reticolato sui wafer odierni) non puoi minimamente pensare di ingrandire ancora più l'architettura prendendo ulteriore spazio e ingrandendo i GPC, quindi devi scegliere, o metti RT core e Tensor o continui a fare chip alla vecchia maniera, solo full fp32 (stile maxwell-pascal).
Abbiamo visto come perdere solo poche rop's abbia comportato anche cali di performance del -10%, i famosi chip fallati del D1.

Se confronti 5080 112 rops e 5090 176 rop's noterai che il rapporto CUDA/rop's è a favore della 5080 avendo la metà dei cuda, ed è anche per questo motivo che la 5090 pur avendo 2x di CUDA e oltre +80% di BW non riesce a scalare, ed è sbagliatissimo contare i cuda come fanno molti senza guardare le altre specs, infatti, di certo non fa 2x sulla 5080, ma si ferma a fare +50%, visto che moltiplica le specifiche di 2x su cuda e bus ma non moltiplica di certo la geometria.


Quindi, non sarà più cosi, le performance arriveranno con il contagocce, nvidia non è intenzionata a sprecare silicio mettendo specs esagerate, ingrandendo i DIE, ormai darà tutto via tech sotto le xx90, le ammiraglie continueranno ad avere boost elevati.
Esatto proprio quello che volevo dire io 🤣
Comunque rispondo per l'unica cosa che ho capito. Il ciò della 5090 è enorme effettivamente. È impressionante vederlo sulla scheda. Limite dello spazio disponibile
 
Funziona davvero bene MFG su TLOU2, al pari di DOOM oserei dire.
In più su TLOU2 si ha la possibilità di vedere quanti fps vengono prodotti dalla gpu e quanti se ne ottengono totalmente con MFG:

Qui risoluzione folle 5160x2160 DLAA, il massimo impostabile, 80 fps di base con MFG diventano 200, liscio come il burro:
tlou-ii_2025_05_21_20_39_18_910.webptlou-ii_2025_05_21_20_39_27_178.webp

Sto gioco attualmente tra patch e mfg ha il frametime che è una tavola da quanto è piatto, solo KIngdom come deliverance lo può battere.
 
Ultima modifica:
Funziona davvero bene MFG su TLOU2, al pari di DOOM oserei dire.
In più su TLOU2 si ha la possibilità di vedere quanti fps vengono prodotti dalla gpu e quanti se ne ottengono totalmente con MFG:

Qui risoluzione folle 5160x2160 DLAA, il massimo impostabile, 80 fps di base con MFG diventano 200, liscio come il burro:

Sto gioco attualmente tra patch e mfg ha il frametime che è una tavola da quanto è piatto, solo KIngdom come deliverance lo può battere.

cit: "il MFG non interessa a nessuno" 😆
 
cit: "il MFG non interessa a nessuno" 😆
Avercene implementazioni di questo livello, sia qui che su DOOM è allo stato dell'arte, il problema è che è talmente OVERKILL che trasforma TLOU2 in un competitivo LOL, per questo posso permettermi di forzare DLDSR a 2.25x e DLAA.
Latenza 25-30ms anche tirando su risoluzioni ampie con tanto di DLAA.
Funziona benissimo, spero che si continui così, come ho sempre scritto sono ottimista e la vedo una tech con molto potenziale, tutto in divenire.
 
Avercene implementazioni di questo livello, sia qui che su DOOM è allo stato dell'arte, il problema è che è talmente OVERKILL che trasforma TLOU2 in un competitivo LOL, per questo posso permettermi di forzare DLDSR a 2.25x e DLAA.
Latenza 25-30ms anche tirando su risoluzioni ampie con tanto di DLAA.
Funziona benissimo, spero che si continui così, come ho sempre scritto sono ottimista e la vedo una tech con molto potenziale, tutto in divenire.
il MFG ha un potenziale enorme,

E mi tocca per forza cambiare schermo perchè con 180hz ormai fai una pippa

però il MFG non interessa a nessuno
 
Ho appenta trovato in vendita due gtx 1060 a 70€ l'una... Sono una bomba per il fhd, ci maxi tutto! Se volete ve le linko...
🤣
 
Ma quale sarebbe il vantaggio di andare oltre i 180 fps?
Sei un pro-gamer sponsorizzato che può apprezzare tali framerate?
la fluidità in più la vedo visto che ho una scheda che mi pemette di vedere anche oltre questo range la sfrutto

mo vado fuori range a 2x a volte a 3x

miu sa che prendo questa bellezza

e ci faccio pure una recensione
 
Funziona davvero bene MFG su TLOU2, al pari di DOOM oserei dire.
In più su TLOU2 si ha la possibilità di vedere quanti fps vengono prodotti dalla gpu e quanti se ne ottengono totalmente con MFG:

Qui risoluzione folle 5160x2160 DLAA, il massimo impostabile, 80 fps di base con MFG diventano 200, liscio come il burro:

Sto gioco attualmente tra patch e mfg ha il frametime che è una tavola da quanto è piatto, solo KIngdom come deliverance lo può battere.
È questo è il MFG che uno vuole! Quello che accetto, al di là dei miglioramenti che comunque dovrà fare ma implementato così bene io l’ho visto solamente in Alan Wake 2 e Doom! Per questo Nvidia non può venderlo come performance pure per due semplici motivi:
1- Attualmente è attivabile in soli pochi giochi senza un peggioramento visivo e di latenza consistente
2- Non è comunque attivabile in quei giochi multiplayer online, e si io non sono un player competitivo quindi la cosa non mi tocca ma per questi utenti se come unico upgrade gli porti la MFG che non possono attivare allora che upgrade gli hai fatto a loro?

Ma quale sarebbe il vantaggio di andare oltre i 180 fps?
Sei un pro-gamer sponsorizzato che può apprezzare tali framerate?
Chi gioca in competitivo comunque non aumenterà mai la latenza ma tenderà sempre a diminuirla quindi il FG/MFG per loro è vietato! Nelle implementazioni ottime come Doom o TLOU2 o Alan Wake 2 è un ottima aggiunta, ma rimane sempre situazionale! Su un gioco di storia come Alan Wake 2 o TLOU2 passare dal frame base già alto a quello con il MFG cambia ben poco! Ovvio se c’è l’hai lo usi, ma non mi cambierei di certo il monitor da 180hz per fare 300 frame in Alan Wake 2 o TLOU2 ecco!😅 Stessa cosa su Doom dove la fluidità qui è già più importante, ma dopo che con il X2 cappo i 180 del monitor va benissimo così. Alla fine il FG/MFG quello che ho sempre detto è che è una tech situazionale, dovrebbe essere implementata sempre come questi 3 giochi per essere una buona aggiunta, e sottolineo aggiunta perché è un di più non un qualcosa di imprescindibile, l’importante è che non venga presa come un qualcosa per raggiungere i 60 frame come da marketing Nvidia perché vista in quel modo è semplicemente uno scam!
 
Pensate che io ieri sera con la mia misera 6600, ho stracciato un contratto e-sports per un team di r6... Facendo live su twitch.

Esco dall'OT era solo per dire che nonostante tutto si può essere gamer con qualsiasi cosa.
 
ma che e-sport tecnologie come il FG o il MFG non sono nate e non sono mai state adatte per iol competitivo, come sempre si fa un mischione assurdo per provare che non serve a niente.

FG e MFG sono nati e rimarranno adatti a quei giochi con la grafica PESANTE diove si dovrà rimanere ancorati sempre ad un refresh BASSO (60-90 fps) e dove gli effetti di illuminazione sono così pesanti che nessuna scheda riuscirà mai a dare una fluidità di quel tipo. (se non tra 50 anni)


E' l'esatto contrario di chi gioca al competitivo che cerca a tutti i costi l'aumento del framerate per ridurre l'inpu lag ma a svantaggio della grafica e dell'immagine grafica (cioè qualsiasi FG nel competitivo non serve a una mazza)

Il FG e il MFG unisce le due cose puoi avere sia un gioco sparato al massimo che un altissimo framerate che ti consente di avere una fluidità senza precedenti, ed è solo in questo contesto che va preso e non in altri

inoltre tecnologie come il MFG sono adattissime a rendere consistente il pacing (cioè la cadenza del frame che è estremamente precisa)

Il montior lo cambio non per i 180hz ma perchè oggi avere un VA o un IPS anche buono non compete con la qualità dell'immagine dei colori e del contrasto di un QD-OLED (il mini led che ho si avvicina ma non è al livello di un oled )

e visto che si cambia si prende anche il più alto refresh possibile per il motion clarity
 
Ultima modifica:
Un player competitivo tendenzialmente tende a ridurre i settaggi grafici al minimo per far si che possa avere un input lag minore possibile...
Inoltre deve avere anche delle sue skills particolari, altrimenti potrai avere anche input lag a 0.1, 10mila fps, ma se hai le mani al contrario non risolvi nulla comunque.

Queste nuove tech, servono piu che altro ad alzare il framerate, e nascono per mascherare un pò le lacune e la mancanza di voglia di ottimizzazione da parte di un sw house.

Oramai (e ve lo dico perchè capita in azienda anche da me, in tutt altro settore col sw, si tende a dire basta che funzioni ) una volta invece il codice si tentava di scriverlo perfetto ed ottimizzato per tutti.

Io sono rimasto di questa filosofia e quindi cerco sempre di scrivere codice smart e pulito per chiunque ma oramai è un approccio che si sta perdendo. Tanto l'hardware è potente e ce la fa.
 
Pubblicità
Pubblicità
Indietro
Top