UFFICIALE Nvidia RTX 5000: Blackwell

Pubblicità
La 5070 è una 5070ti (GB203) che hanno castrato riducendo la cache L2 da 64 a 48MB per creare un gap artificiale tra le 2 schede.
La 5070 rappresenta per la serie 5000 ciò che è stato la 4060ti per la serie precedente.

Poi se la rubate, la comprate da venditori che evadono l'iva e domani potrebbero essere chiusi dalla finanza o se ve la regalano, piutost che nient l'è mej piutost.
Hai sicuramente ragione, non entro in dettagli tecnici che vanno al di la della mia sapienza.

Però... MSRP 550 USD, aggiungo l'iva, aggiusto il cambio, saltano fuori 620 - 630 euro.

Beh, in QHD ci giochi benissimo e ripeto, hai accesso al MFG che sia crime che aralee stanno testimoniando come sia un qualcosa di sbalorditivo, con un monitor adeguato.

Con un monitor "normale", dai 180hz in giù, hai "semplicemente" una scheda che si mangia il QHD.

@Er Barabba confermi?
 
Io non la terrei in OC spinto, soprattutto sulle memorie, cercherei il miglior compromesso, o meglio, prestazioni superiori allo stock ma voltaggio inferiore(clock superiore), con consumi e temperature minori dello stock.
Un profilo fan spinto, maschera l'attività dell'elettronica perché riduce le temperature, quindi tu dici...Wow ottime temperature, tengo tutto settato così, ed invece l'elettronica sta sforzando, è un po' come l'avvelenamento da Xeno in un Reattore Nucleare, maschera la vera attività.
Penso che se uno è costretto ad occare a morte una GPU, allora ha semplicemente sbagliato acquisto, se qualcuno voleva prestazioni STOCK di una 4090(occabile anche lei ad un +10/15% nei giochi sui modelli con PL da 600W), avrebbe dovuto comprare un 4090, e non mandare memorie daily a 2000MHz o flashare BIOS( prima di flashare assicurati che le fasi della tua gpu siano idonee per gestire picchi ed il PL maggiorato), è roba DA NON CONSIGLIARE perché rischi di far partire tutto, inoltre le prestazioni come AVETE notato, sono differenti da gpu a gpu in OC, ed è quello che vi sto dicendo da qualche giorno(fattori determinanti sono binning del chip e PCB con PL annesso), ma disegnini sulla lavagna qui non posso farli ragazzi, io più di questo non posso ;)
Voglio provare Kal El, io è la prima volta che faccio OC. Cosa dovrei provare su AB? Io ho sempre solo fatto Undervolt tieni presente. Quindi come devo fare? Con i valori di AB? Faccio Undervolt e aumento il clock senza toccare le memorie?

PS: però a stock la mia sta a uno spuntino dalla 4090 effettivamente, lo scarto è davvero di 7 fps, senza OC.
 
Voglio provare Kal El, io è la prima volta che faccio OC. Cosa dovrei provare su AB? Io ho sempre solo fatto Undervolt tieni presente. Quindi come devo fare? Con i valori di AB?

PS: però a stock la mia sta a uno spuntino dalla 4090 effettivamente, lo scarto è davvero di 7 fps, senza OC.
È già tirata di suo, e la tua 4090 la tieni a 2670MHz il che performa un 5% in meno dello stock.
Devi alzare direttamente il core clock ed il valore delle memoria, senza toccare il voltaggio, come fa Crime nel suo video, in questo modo terrai il voltaggio entro i limiti dello stock ma forzerai core core e memory clock(che poi in teoria quello che tu metti ad esempio +2000MHz non è un valore reale, ma segue dei cicli di memoria).
Io i test li faccio per bene, alzando poco poco alla volta ad un dato voltaggio per trovare lo ''sweet point'', non conosco la gpu, comincia ad alzare il core clock, quando trovi il massimo supportato senza che la gpu crashi, cominci a toccare le memorie, fino a quando non vedi artefatti a schermo o crash, se crasha o compaiono artefatti riduci un pochettino, e rifai il bench.
Quanto boosta adesso la tua 5080 stock?
@Blitz84 MFG è tutt'altro che sbalorditivo a livello tecnico, è sempre preferibile non attivare questa roba, la gente vuole capacità di calcolo e non fuffa.
 
È già tirata di suo, e la tua 4090 la tieni a 2670MHz il che performa un 5% in meno dello stock.
Devi alzare direttamente il core clock ed il valore delle memoria, senza toccare il voltaggio, come fa Crime nel suo video, in questo modo terrai il voltaggio entro i limiti dello stock ma forzerai core core e memory clock(che poi in teoria quello che tu metti ad esempio +2000MHz non è un valore reale, ma segue dei cicli di memoria).
Io i test li faccio per bene, alzando poco poco alla volta ad un dato voltaggio per trovare lo ''sweet point'', non conosco la gpu, comincia ad alzare il core clock, quando trovi il massimo supportato senza che la gpu crashi, cominci a toccare le memorie, fino a quando non vedi artefatti a schermo o crash, se crasha o compaiono artefatti riduci un pochettino, e rifai il bench.
Quanto boosta adesso la tua 5080 stock?
@Blitz84 MFG è tutt'altro che sbalorditivo a livello tecnico, è sempre preferibile non attivare questa roba, la gente vuole capacità di calcolo e non fuffa.
Ma io ho fatto proprio come ha fatto Crime nel video. Alzato PL 110, clock a +350 e memorie a 2000. Quindi va bene così giusto?
 
Ma io ho fatto proprio come ha fatto Crime nel video. Alzato PL 110, clock a +350 e memorie a 2000. Quindi va bene così giusto?
La stai tirando così, va bene per testarla e capirne le potenzialità, ma poi bona, trova un buon settings daily, io così forzata ogni giorno non la terrei mai.
Inoltre, è molto situazionale l'OC, se ad esempio in un gioco sei cpu bound, o stai usando il FG o MFG e se già ad alto frame, cosa te ne fai di OC del genere.
Cerca piuttosto di ottimizzare la gpu, io utilizzo di più 3 profili salvati su afterburner

1)Undervolt con prestazioni -5% dallo stock, e consumi ridicoli(difficile toccare i 300W con questo profilo, anche sotto PT)
2 )Undervolt con prestazioni uguali allo stock
3) Undervolt con prestazioni 5% superiori allo stock
In tutti questi tre profili non tocco la vRam(capita di rado se non voglio salire troppo con il voltaggio per aumentare il core clock), soprattutto perché se non sei limitato di bandwidth è inutile salire così tanto con la vRam, e poi provarlo anche tu, metti a 1000 e poi metti a 2000, vedrai incrementi ridicoli o nulli.
Poi ho altri due profili più spinti diciamo:
1) Sempre in Undervolt a 1.025mV@2900Mhz con valore delle memorie che vario
2) A 1.070mV@3000Mhz e memorie che vario (non la porto mai sopra i 1000Mhz, anche se stabile a valori più alti), ma ad esempio quest'ultimo è inefficiente è lo trovo inutile, potrei anche spingerla di più, ma per far cosa, consumi alle stelle con sforzo dell'elettronica, per avere qualche fps in più.
La mia ha PL sbloccabile fino a 600W e parte da un voltaggio 1.050mV stock sbloccabile anch'esso a 1.110mV, questa gpu non ha mai avuto bisogno di esser tirata per il collo ;)

@Beex La 9070xt è una gpu eccellente, peccato che venga scalperata.
 
Ma io ho fatto proprio come ha fatto Crime nel video. Alzato PL 110, clock a +350 e memorie a 2000. Quindi va bene così giusto?

vai tranquillo le memoeri GDDR7 come ti ha spiegato @Aralee si possono tirare ancora oltre

Adesso quando i numeri non sono più discutibili ci vuole il terrorismo psicologico
I voltaggi ddella scheda sono a posto
Le temperature sono a posto
Non può succedere asoslutamente nulla e chi dice il contrario non sa di cosa parla
 
Voglio provare Kal El, io è la prima volta che faccio OC. Cosa dovrei provare su AB? Io ho sempre solo fatto Undervolt tieni presente. Quindi come devo fare? Con i valori di AB? Faccio Undervolt e aumento il clock senza toccare le memorie?

PS: però a stock la mia sta a uno spuntino dalla 4090 effettivamente, lo scarto è davvero di 7 fps, senza OC.
Ancora ci provi? non hai capito che non cambieranno mai idea, per loro le performance sono quelle viste sino alla 1080ti, chip imbottiti di cuda core per far girare i giochi in rasterizzazione.
Fosse per loro non esisterebbero: DLSS, PT, RT, FG, MFG e tutte le nuove tech sul neural etcc.. e guai ad innovare

Non hanno ancora capito che anche passando con il nuovo pp a 3nm, la prossima 6080 non riuscirà a fare quel +50-60% di perf, e quindi si ripeterà la storia, forse in maniera ancora più grave, non riuscirà a prendere la 5090 in performance brute, visto che ci passa proprio il +50-60% tra 5080 e 5090.

Dovrebbero fare proprio dei chip grossi sui 500mm2 e non mi sembra che Jensen si sputt4ni i wafer così, visto che le attuali 80: 4080/5080 sono su die da 379mm2 dove ci margina alla grande.

Ultimo e per non dimenticare, per nvidia la rasterizzazione è roba superata, basta guardare l'architettura, dal 2014 nvidia mantiene il solito blocco a 16pixel per gpc:

Kepler: 8 pixel
Maxwell:16 pixel
Pascal: 16 pixel
Turing: 16 pixel
Ada: 16 pixel
Blackwell:16 pixel

Attualmente una 5080 può elaborare 112 rop's, ma se avesse avuto già 32 rop's per gpc avrebbe potuto rasterizzare 32 pixel che per 7 gpc fanno esattamente 224 pixel, questo avrebbe comportato un forte aumento del valore pixel fill rate e quindi anche ulteriori prestazioni, di solito un backend corposo con tante rop's favoriva (in passato) l'utilizzo di filitri antialiasing molto spinti ad esempio MSAA 4x/8x oggi la strada è inversa visto che si utilizza il DLSS e quindi non si appesantisce più il computo ma, piuttosto, si tende a scaricare la mole di lavoro proprio per aumentare le performance e non gravare sulle prestazioni delle schede.

Avrebbero potuto mettere più rops ed imbottire di cuda e performare più in raster? certo che si, ma la 5080 non usciva più a 379mm2 con conseguente aumento di costi di produzione, non hanno puntato a quello, ma hanno puntato ad includere unità matriciali come tensor core ed Rt core, proprio per creare un evoluzione grafica e questo già con le RTX 2000 nel lontano 2018.
 
Ancora ci provi? non hai capito che non cambieranno mai idea, per loro le performance sono quelle viste sino alla 1080ti, chip imbottiti di cuda core per far girare i giochi in rasterizzazione.
Fosse per loro non esisterebbero: DLSS, PT, RT, FG, MFG e tutte le nuove tech sul neural etcc.. e guai ad innovare

Non hanno ancora capito che anche passando con il nuovo pp a 3nm, la prossima 6080 non riuscirà a fare quel +50-60% di perf, e quindi si ripeterà la storia, forse in maniera ancora più grave, non riuscirà a prendere la 5090 in performance brute, visto che ci passa proprio il +50-60% tra 5080 e 5090.

Dovrebbero fare proprio dei chip grossi sui 500mm2 e non mi sembra che Jensen si sputt4ni i wafer così, visto che le attuali 80: 4080/5080 sono su die da 379mm2 dove ci margina alla grande.

Ultimo e per non dimenticare, per nvidia la rasterizzazione è roba superata, basta guardare l'architettura, dal 2014 nvidia mantiene il solito blocco a 16pixel per gpc:

Kepler: 8 pixel
Maxwell:16 pixel
Pascal: 16 pixel
Turing: 16 pixel
Ada: 16 pixel
Blackwell:16 pixel

Attualmente una 5080 può elaborare 112 rop's, ma se avesse avuto già 32 rop's per gpc avrebbe potuto rasterizzare 32 pixel che per 7 gpc fanno esattamente 224 pixel, questo avrebbe comportato un forte aumento del valore pixel fill rate e quindi anche ulteriori prestazioni, di solito un backend corposo con tante rop's favoriva (in passato) l'utilizzo di filitri antialiasing molto spinti ad esempio MSAA 4x/8x oggi la strada è inversa visto che si utilizza il DLSS e quindi non si appesantisce più il computo ma, piuttosto, si tende a scaricare la mole di lavoro proprio per aumentare le performance e non gravare sulle prestazioni delle schede.

Avrebbero potuto mettere più rops ed imbottire di cuda e performare più in raster? certo che si, ma la 5080 non usciva più a 379mm2 con conseguente aumento di costi di produzione, non hanno puntato a quello, ma hanno puntato ad includere unità matriciali come tensor core ed Rt core, proprio per creare un evoluzione grafica e questo già con le RTX 2000 nel lontano 2018.
Metà dei termini che hai usato per me sono incomprensibili, ma hai spiegato tutto in modo talmente approfondito che mi hai convinto di brutto.
 
Ancora ci provi? non hai capito che non cambieranno mai idea, per loro le performance sono quelle viste sino alla 1080ti, chip imbottiti di cuda core per far girare i giochi in rasterizzazione.
Fosse per loro non esisterebbero: DLSS, PT, RT, FG, MFG e tutte le nuove tech sul neural etcc.. e guai ad innovare

Non hanno ancora capito che anche passando con il nuovo pp a 3nm, la prossima 6080 non riuscirà a fare quel +50-60% di perf, e quindi si ripeterà la storia, forse in maniera ancora più grave, non riuscirà a prendere la 5090 in performance brute, visto che ci passa proprio il +50-60% tra 5080 e 5090.

Dovrebbero fare proprio dei chip grossi sui 500mm2 e non mi sembra che Jensen si sputt4ni i wafer così, visto che le attuali 80: 4080/5080 sono su die da 379mm2 dove ci margina alla grande.

Ultimo e per non dimenticare, per nvidia la rasterizzazione è roba superata, basta guardare l'architettura, dal 2014 nvidia mantiene il solito blocco a 16pixel per gpc:

Kepler: 8 pixel
Maxwell:16 pixel
Pascal: 16 pixel
Turing: 16 pixel
Ada: 16 pixel
Blackwell:16 pixel

Attualmente una 5080 può elaborare 112 rop's, ma se avesse avuto già 32 rop's per gpc avrebbe potuto rasterizzare 32 pixel che per 7 gpc fanno esattamente 224 pixel, questo avrebbe comportato un forte aumento del valore pixel fill rate e quindi anche ulteriori prestazioni, di solito un backend corposo con tante rop's favoriva (in passato) l'utilizzo di filitri antialiasing molto spinti ad esempio MSAA 4x/8x oggi la strada è inversa visto che si utilizza il DLSS e quindi non si appesantisce più il computo ma, piuttosto, si tende a scaricare la mole di lavoro proprio per aumentare le performance e non gravare sulle prestazioni delle schede.

Avrebbero potuto mettere più rops ed imbottire di cuda e performare più in raster? certo che si, ma la 5080 non usciva più a 379mm2 con conseguente aumento di costi di produzione, non hanno puntato a quello, ma hanno puntato ad includere unità matriciali come tensor core ed Rt core, proprio per creare un evoluzione grafica e questo già con le RTX 2000 nel lontano 2018.
Secondo me non è tanto accettare le nuove tecnologie, quanto digerire i nuovi prezzi
 
Metà dei termini che hai usato per me sono incomprensibili, ma hai spiegato tutto in modo talmente approfondito che mi hai convinto di brutto.
Ha detto quello che ho detto io nella guida del MFG che non ha più alcun senso valutare le schede per quello che danno in forza bruta perchè non è quello a cui le aziende stanno più puntando, il costo dei chip diverrebbe insostenibile sia per loro che per noi con iol vechio modo di valutare le schede (cioè la rasterizzazione)

Detto in termini pratici se vuoi aumentare del 30% le prestazioni non ti basta aumentare dle 30% il numeor di cuda servirà molto di più quindi dovrebbe aumentare a dismisura la dimensione del chip .

Non serve a nulla pensare ancora alla forza bruta quando adesso fai questo:

1743088171947.webp

sarebbe altamente stupido per tutti quanti

Se nvidia avesse voluto aumentare nelgi anni la forza bruta gli sarebbe bastato riempire i chip di CUDA senza andarsi a complicarsi la vita con ray traicng e tensor core e altre cose

Hanno fatto una scelta diversa perchè la strada della "forza bruta" non porta da nessuna parte si impiegherebbero anni e anni con costi di ricerca e sviluppo con sprechi di energia e risorse quando con un approccio differente si impiega una frazione del tempo e un uso infinitesimale di risorse

Oggi con l'uso delle tecnologie si riesce a moltiplicare x 8 un frame nativo senza problemi di qualità delle immagini e di input lag

Quanto tempo passa prima che questo avvenga con la cosiddetta "forza bruta" e in un momento in cui praticamente lo spazio fisico è finito?
 
Ultima modifica:
Ha detto quello che ho detto io nella guida del MFG che non ha più alcun senso valutare le schede per quello che danno in forza bruta perchè non è quello a cui le aziende stanno più puntando, il costo dei chip diverrebbe insostenibile sia per loro che per noi con iol vechio modo di valutare le schede (cioè la rasterizzazione)

Detto in termini pratici se vuoi aumentare del 30% le prestazioni non ti basta aumentare dle 30% il numeor di cuda servirà molto di più quindi dovrebbe aumentare a dismisura la dimensione del chip .

Non serve a nulla pensare ancora alla forza bruta quando adesso fai questo:

Visualizza allegato 490969

sarebbe altamente stupido per tutti quanti

Se nvidia avesse voluto aumentare nelgi anni la forza bruta gli sarebbe bastato riempire i chip di CUDA senza andarsi a complicarsi la vita con ray traicng e tensor core e altre cose

Hanno fatto una scelta diversa perchè la strada della "forza bruta" non porta da nessuna parte si impiegherebbero anni e anni con costi di ricerca e sviluppo con sprechi di energia e risorse quando con un approccio differente si impiega una frazione del tempo e un uso infinitesimale di risorse
No no, lui ha parlato di rops (?), di mm2 (che per me è una delle metro di Milano), di gpc (che per me è un utente di questo forum)... ma ripeto, alzo le mani, non saprei come ribattere.
Anzi, non saprei con COSA ribattere 🤣
 
Pubblicità
Pubblicità
Indietro
Top