UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
terribile assolutamente no, diciamo che rispetto all'esordio è stato fatto un passo avanti notevole (non so se l'avevi provato al lancio in BF5 o in Metro Exodus, ma era una zozzeria vera) e diciamo che ormai non viene più compromessa l'esperienza di gioco...

in alcuni titoli la resa è molto buona, al punto che non si nota molto rispetto alla nativa o appare addirittura superiore (vedi DS), ma in diversi altri mi da ancora quella sensazione di immagine "sporca" che a me non piace molto, ed anche in considerazione dell'hw che utilizzo, preferisco di gran lunga rinunciare a qualche FPS visto che ne ho già in abbondanza (e non sono assolutamente un fanatico dell'ultimo frame) ma avere la resa migliore possibile...
Si mi ricordo benissimo, infatti anche nel mio messaggio ho specificato sembrava che descrivesse il DLSS 1.0.

All'inizio era una zozzeria, oggi è una cosa completamente diversa.

Ci sono dei giochi oggi dove il dlss migliora la qualità visiva sotto ogni punto di vista, persino in QHD, altri dove è meno efficace, ma al livello generale possiamo dire che il DLSS non da problemi.

Poi lungi da me nel discutere i gusti personali, uno può preferite un opzione o meno, ma da un analisi di tipo oggettivo il dlss non ti rovona affatto l'esperienza, in alcuni titoli è stato fondamentale per ottenere il massimo del dettaglio grafico in RT con cui senza non si ottiene un frame accettabile.


Inviato dal mio Pixel 7 utilizzando Tapatalk
 
Si mi ricordo benissimo, infatti anche nel mio messaggio ho specificato sembrava che descrivesse il DLSS 1.0.

All'inizio era una zozzeria, oggi è una cosa completamente diversa.

Ci sono dei giochi oggi dove il dlss migliora la qualità visiva sotto ogni punto di vista, persino in QHD, altri dove è meno efficace, ma al livello generale possiamo dire che il DLSS non da problemi.

Poi lungi da me nel discutere i gusti personali, uno può preferite un opzione o meno, ma da un analisi di tipo oggettivo il dlss non ti rovona affatto l'esperienza, in alcuni titoli è stato fondamentale per ottenere il massimo del dettaglio grafico in RT con cui senza non si ottiene un frame accettabile.


Inviato dal mio Pixel 7 utilizzando Tapatalk
Sono concorde anche io che il DLSS sia utile. Però ad esempio io su DS l'ho disattivato perché mi generava molta scia nei massi che salgono al cielo nelle strade, e visto che io uso solo praticamente le strade mi dava particolarmente fastidio. Visto che anche senza DLSS stavo sopra i 100FPS non avevo motivo di tenerlo attivo.
 
Allora può essere che 90fps sia proprio il limite della 4080. Sono andato a memoria e ricordavo male, pensavo fosse più CPU-bond.
Beh quei test sono tutti con la 2080 Ti… bisogna vedere la 4080.
in effetti questa generazione ha messo alla frusta le CPU, però ricordiamoci che stiamo parlando di 4K…
 
Sono concorde anche io che il DLSS sia utile. Però ad esempio io su DS l'ho disattivato perché mi generava molta scia nei massi che salgono al cielo nelle strade, e visto che io uso solo praticamente le strade mi dava particolarmente fastidio. Visto che anche senza DLSS stavo sopra i 100FPS non avevo motivo di tenerlo attivo.
E' comuqnue strano in Death stranding non ho notato nulla del geere ad esempio, nemmeno nei dettagli più piccoli

Il DLSS da me comincia ad avere delle differenze abbastanza nette se metti in modalità prestazioni ma in mdlità qualità anche il cosidetto "ghosting" o qualsiais altro artefatto è una cosa molto rara
 
Comunque stavo leggendo che nvidia lancerà la 4060TI il 24 in due versioni, una da 8 e una da 16. MO tralasciando tutto il discorso sul marketing della vram e cose varie… Io non capisco il senso di lanciarla in 2 varianti, piuttosto dammi solo quella da 16GB che tanto per il resto c'è già la 4060 liscia. Capisco il marketing sulla VRAM (alla fine sono aziende che devono guadagnare) ma sembra quasi che tutto il casino che hanno avuto con la 3080 da 10 e 12 non gli abbia insegnato niente
Il fatto è che il chip della 4060Ti ha 128 bit di bus, quindi hai solo 4 collegamenti da 32bit per i moduli ram
Ad oggi i chip GDDR6 al massimo arrivano a 2GB l'uno come capacità, quindi con montaggio standard puoi metterci solo 4x2GB = 8GB

Farla da 16GB significa accoppiare due moduli sullo stesso collegamento (solitamente si realizza in "clamshell" montandone uno sul fronte ed uno sul retro del pcb) che comporta alcuni problemi oltre a costi aggiuntivi

Quindi, rumor a parte da vedere se poi si concretizzano (nutro ancora dubbi sul fatto che vedremo la variante da 16), sicuramente nVidia ha progettato tale scheda per farla uscire solo con 8GB (progetti una gpu per il clamshell solo se non puoi proprio farne a meno e solitamente non vale la pena di farlo su schede di fascia medio-bassa)
 
Il fatto è che il chip della 4060Ti ha 128 bit di bus, quindi hai solo 4 collegamenti da 32bit per i moduli ram
Ad oggi i chip GDDR6 al massimo arrivano a 2GB l'uno come capacità, quindi con montaggio standard puoi metterci solo 4x2GB = 8GB

Farla da 16GB significa accoppiare due moduli sullo stesso collegamento (solitamente si realizza in "clamshell" montandone uno sul fronte ed uno sul retro del pcb) che comporta alcuni problemi oltre a costi aggiuntivi

Quindi, rumor a parte da vedere se poi si concretizzano (nutro ancora dubbi sul fatto che vedremo la variante da 16), sicuramente nVidia ha progettato tale scheda per farla uscire solo con 8GB (progetti una gpu per il clamshell solo se non puoi proprio farne a meno e solitamente non vale la pena di farlo su schede di fascia medio-bassa)

ma certo, che poi in ogni caso torniamo sempre al solito discorso, 16GB su una GPU del genere sono completamente inutili..
ed il clamshell comporterebbe anche un sensibile aumento del costo finale, a quel punto uno potrebbe già pensare ad una 4070 liscia se l'MRSP della 4060Ti (8GB) fosse confermato sui 450$...

ma dubito che vedremo un clamshell su una scheda di questa fascia
--- i due messaggi sono stati uniti ---

ah alla fine hai ceduto :D

anche a me arriverà una nuova ADA la prox settimana, ma la mia sarà più piccina... 😭
 
Il fatto è che il chip della 4060Ti ha 128 bit di bus, quindi hai solo 4 collegamenti da 32bit per i moduli ram
Ad oggi i chip GDDR6 al massimo arrivano a 2GB l'uno come capacità, quindi con montaggio standard puoi metterci solo 4x2GB = 8GB

Farla da 16GB significa accoppiare due moduli sullo stesso collegamento (solitamente si realizza in "clamshell" montandone uno sul fronte ed uno sul retro del pcb) che comporta alcuni problemi oltre a costi aggiuntivi

Quindi, rumor a parte da vedere se poi si concretizzano (nutro ancora dubbi sul fatto che vedremo la variante da 16), sicuramente nVidia ha progettato tale scheda per farla uscire solo con 8GB (progetti una gpu per il clamshell solo se non puoi proprio farne a meno e solitamente non vale la pena di farlo su schede di fascia medio-bassa)
Siccome questi rumors sono insistenti, vedo due possibilità: si tratta di una fake news proveniente dalla stessa fonte e spacciata da più siti, oppure Nvidia sta per dare il via ad un ennesima porcata, con due 4060Ti che sono sostanzialmente diverse tra loro (come la 3080 10 e 12 GB)
 
Sono concorde anche io che il DLSS sia utile. Però ad esempio io su DS l'ho disattivato perché mi generava molta scia nei massi che salgono al cielo nelle strade, e visto che io uso solo praticamente le strade mi dava particolarmente fastidio. Visto che anche senza DLSS stavo sopra i 100FPS non avevo motivo di tenerlo attivo.
La cosa stranissima è proprio che tu abbia citato Death Stranding 🧐
In altri giochi ci stanno valutazioni soggettive, ma su quello davvero il DLSS è implementato ad arte.
 
Siccome questi rumors sono insistenti, vedo due possibilità: si tratta di una fake news proveniente dalla stessa fonte e spacciata da più siti, oppure Nvidia sta per dare il via ad un ennesima porcata, con due 4060Ti che sono sostanzialmente diverse tra loro (come la 3080 10 e 12 GB)

si ma con la 3080 era molto differente la situazione, in questo caso con AD106 c'è una sola opzione per mettere 16GB, e comporta costi non proprio contenuti, in questa fascia dubito fortemente lo faranno mai, non avrebbe nemmeno senso visto che quel quantitativo di vram in più sarebbe fondamentalmente inutile (la GPU morirà ben prima di arrivare a sforare la memoria)...

porterebbe questa ipotetica 4060TI 16GB ad un prezzo vicino a quello della 4070 liscia, solo un pazzo la prenderebbe in considerazione...
 
Pubblicità
Pubblicità
Indietro
Top