UFFICIALE Nvidia RTX 5000: Blackwell

Pubblicità
Poi posterò qualche risultato ma dai primi test la mia 5090 va dal 40 al 60% in più della mia 4090 sullo stesso PC sia sui vari 3dmark che sui giochi più pesanti senza FG.
Io direi che va almeno un 2x in gaming

Per la sincronizzazione del g sync con il frame gen, da pannello o app nVidia per ogni gioco devi selezionare così(prestazioni massime puoi tralasciarlo), lascia stare il frame cap, così è l'unico modo per sincronizzare G Sync, frame gen e reflex(il quale bloccherà gli fps):
 

Allegati

  • Screenshot 2025-04-01 165129.webp
    Screenshot 2025-04-01 165129.webp
    26.6 KB · Visualizzazioni: 1
un appunto che un gioco "saturi" 16Gb di vram non significa che quella ram serva

E' normale oggi che se metti un gioco in 4K satura tutta la VRAM perchè la VRAM serve al gioco e il gioco alloca tutta la vram che ha a disposizione.

cvhe saturi la VRAM non significa che la VRAM "non basta" oggi i giochi più pesanti allocano tutta la VRAM disponibile a meno che non ne trovino un quantitativo talmente esagerato che proprio non serve un allocazione così elevata..

Per spigarlo in parole semplici mettiamo il caso che prenoti un ristorante, per 300 persone il ristoratore però ti affitta l'intero locale da 600 eprsone perchè in quel giorno sa che verrete solo voi e vi affitta tutto il locale

La 5080 a mio avviso è la peggiore scheda che potevate comprare. Una scheda 4K pensata per il futuro grazie ai vari MFG ma che in realtà ha poco di futuribile per via di una RAM che sbatterà presto verso limiti naturali.

Se oggi, sui "vecchi" motori 16GB sono necessari, domani non saranno sufficienti soprattutto se si vorranno usare i vari Gassist e via dicendo. Già oggi Gassist gira male con 16GB sui giochi odierni, figuriamoci su un eventuale GTA6 o un prossimo TW4 per citarne qualcuno.

Per come la vedo io la 5080 è la morte del gaming high end PC, costi folli per schede che non valgono il loro prezzo né rispettano il loro target di utilizzo (il 4K).

La serie 80 prima era una scheda intelligente per i gamer enthusiast, oggi è una scheda per chi vorrebbe l'high end ma non può, una scheda che costa come un High end ma con troppi compromessi.

La 5090 è una scheda stupidamente costosa per cui non merita nemmeno menzione.
 
@andre1, se è in POWER LIMIT non testi alcuna potenzialità massima di binning, potresti in teoria farlo se, prendi due esemplari con stesso PL, esegui lo stesso bench con gli stessi settings, e vedi quale delle due salirà più in frequenza e conseguentemente significa che adotterà un voltaggio minore per raggungere una data frequenza= Chip Binnato meglio.
Il binning verifica che TUTTE le componenti in funzione raggiungano un certo risultato.
Infatti i chip delle schede video vengono messi sotto torchio per certificare che tutti i core funzionino in un certo modo.
Se alcuni performano in modo inaspettato vengono spenti e il chip viene riservato ad un modello minore.

Io direi che va almeno un 2x in gaming
Sono i numeri che parlano.
Prendiamo ad esempio Speedway.
Con la 4090 Strix il punteggio era mediamente di 10800 punti.
Con la 5090 Astral il punteggio è mediamente di 15100 punti (ho postato il bench qualche pagina indietro)
E' il 71% in più.
Nei giochi non è cosi ampio ma mediamente un 50% in più c'è sempre.
Poi se la FE fa cagare e non raggiunge certe performance questo è un altro problema 😊
 
Nei giochi non è cosi ampio ma mediamente un 50% in più c'è sempre.
Cosa devo dirti io, HAI RAGIONE ANDREA* ma i bench nei videogames dicono tutt'altro, possono esserci tuttavia dei picchi, ma mediamente in gaming siamo al 30% scarso di differenza.

Comunque, in generale, si la 5080 è da bocciare per via del costo, ma è tuttavia una buona gpu (sotto le €1000) con i suoi limiti(vRam), e su questo do pienamente ragione a @techsaskia.
Ma il problema è anche la 5090 che non dovrebbe proprio esistere, costo, assorbimento e prestazioni medie rispetto all'ex ammiraglia, scandalose.

*
 
Ultima modifica:
Altra cosa...

Io con i vari MFG supero il refresh rate del monitor.

Supponiamo che io abbia un monitor 160Hz e che io abbia bisogno di un MFG 3X per arrivare a superare i 160Hz che però spingono il tutto a 190FPS.

Per rimanere nel range del gsync mi verrebbe da attivare il frame rate cap nei driver.

Avete provato a capire come si comporta il MFG con il frame rate cap?
Non ho ben capito anche io e ho avuto poco tempo di testare..ho provato a cappare i frame ma vedevo un po' di tearing,ho lasciato i frame oltre i 200 e non ne vedevo...Non avrò tempo fino al weekend probabilmente,ma mi interessa capire meglio.
 
Non ho ben capito anche io e ho avuto poco tempo di testare..ho provato a cappare i frame ma vedevo un po' di tearing,ho lasciato i frame oltre i 200 e non ne vedevo...Non avrò tempo fino al weekend probabilmente,ma mi interessa capire meglio.
Devi settare il gioco così(allegato), non vedrai più tearing ed il frame rate massimo sarà quello del monitor, ma NOTA BENE, da gioco assicurati di aver disattivato il Vsync.
 

Allegati

  • Screenshot 2025-04-01 165129.webp
    Screenshot 2025-04-01 165129.webp
    26.6 KB · Visualizzazioni: 1
La 5080 a mio avviso è la peggiore scheda che potevate comprare. Una scheda 4K pensata per il futuro grazie ai vari MFG ma che in realtà ha poco di futuribile per via di una RAM che sbatterà presto verso limiti naturali.

Se oggi, sui "vecchi" motori 16GB sono necessari, domani non saranno sufficienti soprattutto se si vorranno usare i vari Gassist e via dicendo. Già oggi Gassist gira male con 16GB sui giochi odierni, figuriamoci su un eventuale GTA6 o un prossimo TW4 per citarne qualcuno.

Per come la vedo io la 5080 è la morte del gaming high end PC, costi folli per schede che non valgono il loro prezzo né rispettano il loro target di utilizzo (il 4K).

La serie 80 prima era una scheda intelligente per i gamer enthusiast, oggi è una scheda per chi vorrebbe l'high end ma non può, una scheda che costa come un High end ma con troppi compromessi.

La 5090 è una scheda stupidamente costosa per cui non merita nemmeno menzione.
Sono d’accordissimo, io spero nella compressione delle texture. Lato giochi comunque più che trovarci con un GTA 6 o The Witcher 4 che non girano penso più che saranno i giochi che si troveranno limitati dall’hardware. Principalmente i gamer giocano su console o schede di fascia 60 max 70 quindi parliamo di 12GB di VRAM, gli sviluppatori dovranno tenere in conto questo. Sono sicuro che se Nvidia fosse stata più generosa con la VRAM sicuramente molti giochi futuri gli stessi sviluppatori avrebbero osato di più. Come detto prima spero nel texture compression che se risolve questo problema può regalarci diverse soddisfazioni lato qualità visiva.
 
1000048130.webp
Questa è la mia cloccata a 3200MHz quasi fissi e con temp che non superano i 52°C con 24°C di tamb con ventole sui rad al minimo e un ciclo completo di 20 esecuzioni di 3dmark speedway. Praticamente inudibile.

Ho preso anche una zotac amp extreme 5090 per mia moglie ed è una monnezza.
Si raggiungono 80°C anche con ventole tutto sommato rumorose. Con ventole a palla (inutilizzabile per vià del rumore) mi fermo a 74°C con tutti i tagli di frequenza del caso dovuti alle temp.
Il case è sicuramente tra i colpevoli in questo caso perché poco ventilato ma 600W sono veramente duri da raffreddare ad aria.

Tra l'altro la zotac fa anche molto più coil whine della mia gainward liquidata.
1000046937.webp
 
Ultima modifica da un moderatore:
L'importante è che il Neural Rendering non introduca altri artefatti, perché non se ne può più, cioè, se lato RT migliora la qualità d'immagine, lato tech di supporto al RT, lo peggiorano, queste tech, soprattutto quelle temporali o di predizione, sporcano molto l'immagine, i videogames quando attivi tutto il comparto nVidia, sono molto più ''blurry/sfocati'' che senza tech, prova tu stesso.
@antoniot2 se ti va, potresti fare una diretta su youtube per cercare di capire il comportamento del tuo chip, così tutti possono seguire :)
L’importante sarà che il guadagno supererà sempre la perdita. Ovvio che senza DLSS un gioco avrà un immagine più pulita ma senza di esso non avremmo avuto il Rat Tracing. Probabilmente le prime interazioni del Neural Rendering saranno come il DLSS e farà lo stesso processo di crescita. Sicuramente qualcosa all’inizio sporcherà dell’immagine ma se riusciamo ad avere delle texture come quelle mostrate con il Neural material nella presentazione Nvidia beh il gioco vale la candela.😉
 
La 5080 a mio avviso è la peggiore scheda che potevate comprare. Una scheda 4K pensata per il futuro grazie ai vari MFG ma che in realtà ha poco di futuribile per via di una RAM che sbatterà presto verso limiti naturali.

Se oggi, sui "vecchi" motori 16GB sono necessari, domani non saranno sufficienti soprattutto se si vorranno usare i vari Gassist e via dicendo. Già oggi Gassist gira male con 16GB sui giochi odierni, figuriamoci su un eventuale GTA6 o un prossimo TW4 per citarne qualcuno.

Per come la vedo io la 5080 è la morte del gaming high end PC, costi folli per schede che non valgono il loro prezzo né rispettano il loro target di utilizzo (il 4K).

La serie 80 prima era una scheda intelligente per i gamer enthusiast, oggi è una scheda per chi vorrebbe l'high end ma non può, una scheda che costa come un High end ma con troppi compromessi.

La 5090 è una scheda stupidamente costosa per cui non merita nemmeno menzione.
non sono d'accordo parlare solo della quantità di VRAM oggi non ha senso specie nei giochi e specie nel mercato che sta veendeno

Ti darei ragione se il modo andasse verso un suo più intensivo di vRAM ma sta succedendo l'esatto contrario, quindi non ha assolutamente senso vedeerla che nel futuro GTA5 non gireraà

Prima di tutto GTA 5 none sce nemmeno su pc all'inizio quindi dire che non basterà la VRAM è solo speculazione, seconda
cosa non ha asoslutamente senso parlare di quantità dio VRAM senza uan valutazione di tutto il resto di cose come la cache presente, il tipo d i VRam la larghezza di banda ecc

poi fare il paragoine su G-assist non ha senso G-assist è un AI che è come chat GPTche si fa girare durante un gioco, cioè un qualcoa che è avido di VRAM da solo

Fino a ieri 12GB non bastavano per giocare ma oggi bastano per giocare e farci girare pure un AI stile LMM
 
Pubblicità
Pubblicità
Indietro
Top