UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
come detto sono punti di vista, è normale pensarla diversamente...

a compromessi bisognerà scendere ugualmente prima o poi, ma in quel caso più per i limiti di GA106 che per il quantitativo di vram a bordo...

del resto è NVIDIA stessa che ha ritenuto sufficienti 8/10GB su soluzioni di fascia ben superiore a quella, tutto va relazionato alle potenzialità della GPU in uso alla fine.. :)
Si capisco ma la qualità delle texture non influisce sulle performance. Se giochi ad un gioco tutto su alto ma con texture a basso, sarà sempre peggio che giocare ad un gioco tutto su basso ma con texture su alto. La rtx 3060 probabilmente in alcuni giochi sarà limitata persino in 1080p per maxxare tutto, ma almeno lasciagli l'opportunità di maxxare le texture 😅
8GB sarebbe stato perfetto poiché è diventato il minimo indispensabile per non avere problemi con le texture+settaggi.
 
certamente, ma questa è una conseguenza del "credo" comune, in quella fascia e con le potenzialità messe sul piatto da quella GPU 6GB sarebbero stati più che sufficienti per il suo target di utilizzo...

alla fine si è ben visto che tutta quella vram non ha reso la 3060 più future-proof delle altre, purtroppo entrano in gioco altri aspetti, anche se molti non lo capiscono o non lo vogliono capire...
Veramente direi che i 12 GB hanno reso la 3060 lievemente più future proof.
Con 6 GB sarebbe davvero limitata anche in 1080P con alcuni titoli (mentre direi che in 1080P la RTX 3060 è più che dignitosa)

la 3060 ha come target quale risoluzione? il 1440p? il 4k?
no di sicuro, diciamo più un 1080p, e a quella res non sono necessari 12GB di vram, e in ogni caso maxando a prescindere nei titoli più esosi arrancherebbe molto prima a livello di potenza di calcolo GPU che non per sforamento di vram...

oppure sulla base dei 12GB vogliamo affermare che quella scheda sarebbe da preferirsi ad una 3070/3070Ti/3080?
Aspetta, è vero che non sono necessari 12 GB, a 1080P, ma è altrettanto vero che NON sono sufficienti 6 GB, che era l’altra opzione.
 
8GB sarebbe stato perfetto poiché è diventato il minimo indispensabile per non avere problemi con le texture+settaggi.

purtroppo non c'era alcun modo di mettere 8GB su GA106, visto il bus di memoria a 192bit o 6GB o 12GB...

sul modello superiore 3060Ti hanno usato un GA104 decurtato ma pur sempre con bus 256bit, li si che 8GB li potevano mettere e l'hanno fatto, potevano pure metterne 16GB usando moduli a doppia densità come fatto con la 3060 liscia, ma non avrebbe avuto alcun senso...

con le prossime RTX 4060 AD106, visto il bus a 128Bit, metteranno 8GB (quindi 4GB in meno rispetto alla precedente 3060 liscia), mentre con le RTX 4050 AD107 è probabile che si scenda a 6GB, se confermeranno il bus di appena 96bit, quindi 2GB in meno della RTX 3050...
 
dipende dai punti di vista, come in tutte le cose... :D
anche con gli 8GB sulla 3050 liscia non è molto differente il discorso
La 3050 è ridicola di suo… nel senso che è una scheda che doveva costare 150 euro, ed a quel punto potevano anche metterci 4 o 6 GB di VRAM.

del resto è NVIDIA stessa che ha ritenuto sufficienti 8/10GB su soluzioni di fascia ben superiore a quella, tutto va relazionato alle potenzialità della GPU in uso alla fine.. :)

Beh, Nvidia ha ritenuto sufficienti gli 8 GB della RTX 3070 in modo che alcuni utenti oggi potessero NON ritenerli più sufficienti ed essere spinti all’upgrade 😅
 
la 3060 con 6GB di vram non avrebbe avuto nessun tipo di mercato quidni la decisione di mettere 12 Gb è stata diciamo "obbligata"
 
purtroppo non c'era alcun modo di mettere 8GB su GA106, visto il bus di memoria a 192bit o 6GB o 12GB...

sul modello superiore 3060Ti hanno usato un GA104 decurtato ma pur sempre con bus 256bit, li si che 8GB li potevano mettere e l'hanno fatto, potevano pure metterne 16GB usando moduli a doppia densità come fatto con la 3060 liscia, ma non avrebbe avuto alcun senso...

con le prossime RTX 4060 AD106, visto il bus a 128Bit, metteranno 8GB (quindi 4GB in meno rispetto alla precedente 3060 liscia), mentre con le RTX 4050 AD107 è probabile che si scenda a 6GB, se confermeranno il bus di appena 96bit, quindi 2GB in meno della RTX 3050...
Questo discorso l’ho già fatto, non ricordo se qui o altrove, poche settimana fa.
Non è che il bus “cade dal pero” eh.
Non è che l’ingegnere un giorno si sveglia e dice “toh, qui abbiamo un bus a 192 bit, ora che RAM ci monto ?” 😅
Queste scelte sono fatte sul tavolo da disegno , mesi e mesi in anticipo.
Quindi Nvidia ha disegnato quei bus già cosciente del quantitativo di VRAM da montarci.
Decidere per un bus diverso era fattibile.

Se ci fosse stata la volontà… 😉
 
Questo discorso l’ho già fatto, non ricordo se qui o altrove, poche settimana fa.
Non è che il bus “cade dal pero” eh.
Non è che l’ingegnere un giorno si sveglia e dice “toh, qui abbiamo un bus a 192 bit, ora che RAM ci monto ?” 😅
Queste scelte sono fatte sul tavolo da disegno , mesi e mesi in anticipo.
Quindi Nvidia ha disegnato quei bus già cosciente del quantitativo di VRAM da montarci.
Decidere per un bus diverso era fattibile.

Se ci fosse stata la volontà… 😉

esatto, molti lo pensano però, e saltano fuori le ipotesi più irrealistiche del mondo... :D
se segui i leaks dei soliti noti ad ogni modello, vedrai spesso spec assurde...
--- i due messaggi sono stati uniti ---
Beh, Nvidia ha ritenuto sufficienti gli 8 GB della RTX 3070 in modo che alcuni utenti oggi potessero NON ritenerli più sufficienti ed essere spinti all’upgrade 😅

anche questo è vero, se la facevano da 16GB uno la tirava fino alle RTX 60... :asd:
--- i due messaggi sono stati uniti ---
la 3060 con 6GB di vram non avrebbe avuto nessun tipo di mercato quidni la decisione di mettere 12 Gb è stata diciamo "obbligata"

in quel periodo storico l'ultima delle cose che uno guardava sarebbe stata quella, era molto più importante trovarla una vga disponibile... :D
 
Ultima modifica:
E' chiaro che nvidia ritenga pericoloso dare troppo sulla fascia di prestazioni delle 3070 o oggi future 4060.

Probabilmente quel livello di prestazioni è (o meglio sarebbe) il punto d'arrivo di chi è disposto a spendere ma pretendendo longevità e prestazioni.

Castrando la ram nvidia forza la scelta di due alternative:
- obsolescenza: scheda da 8gb (3070/4060) e aggiornamento più vicino in futuro
- upsell: scheda da 10+gb (3080/4070)
In entrambi i casi nvidia ci guadagna rispetto alla vendita di una 3070/4060 da 10gb che sarebbe il vero affare per gli acquirenti.
 
l'ideale secondo me erano 6GB con qualche decina di euro in meno sul prezzo finale... :D
ma alla fine con Ampere avevano fatto una line-up un pò particolare, già a partire dagli 8GB sulla 3050 liscia...

poi fin c'è chi li considera un valore aggiunto su GPU del genere significa che hanno fatto benissimo a metterceli...

Nella valutazione un aspetto fondamentale è sicuramente il costo addizionale da affrontare per comprare memorie di capacità doppia, che poi si ripercuote sul prezzo praticato ai consumatori per il prodotto finale. Non sapendo esattamente a quanto ammonti, è difficile fare ragionamenti sensati.
Comunque si potrebbe tagliare la testa al toro rinunciando ai multipli di 2 per le memorie: una bella RTX3060 da 9GB avrebbe un che di poetico 😂
 
Sei appena stato smentito da W1zzard, che sul thread della 4070 (infestato da fanboy AMD) ha appena detto che hanno aggiornato i test fatti CON TUTTE le Radeon con i drivers di febbraio, lamentandosi poi che da allora AMD non ha rilasciato più drivers ottimizzati per la serie 6000, concentrandosi sulle beta per sistemare la serie 7000…
Smentito di cosa scusa?


RX 7900 XT & XTX: 23.1.2 Beta
AMD: 22.11.2 WHQL
Questi sono i driver di dicembre 2022
Sono anni che seguo le rece di Techpowerup e di altri siti, e so benissimo come loro lavorano.

Nel caso della GTX780ti, c'era anche una questione di architettura: Kepler con le DX12 proprio non è mai andata e questo nei giochi usciti qualche anno dopo l'ha penalizzata. Comunque le DX12 hanno iniziato a comparire 2/3 anni dopo l'uscita della 780ti (vado a memoria), quindi era una scheda che in parte aveva già fatto la sua vita.
I 3GB di memoria sicuramente hanno ulteriormente contribuito alla non eccelsa longevità della scheda, soprattutto rispetto alle AMD del periodo.

Per la RTX3070 non c'è un tema di architettura: anzi, rispetto a RX6700 XT o anche RX 6800 gode sicuramente di più prestazioni in ray tracing. Rimane il fatto che la memoria è un po' al limite per quello che la GPU potrebbe fare, ma è sufficiente scegliere una combinazione di dettagli che consenta di rimanere entro gli 8GB di memoria nei giochi (per ora pochi) che la espongono al problema. Invece non c'era una combinazione di dettagli che consentisse alla GTX780ti di performare bene in DX12.
Insomma, come dici anche tu, situazione diverse...



E' ovvio che avendo un'ampia suite di test e un'ampia selezione di schede non usino dati freschi per ogni recensione. Però gli aggiornamenti li fanno abbastanza di frequente: tra l'altro c'è chiara indicazione dei driver usati per ciascuna scheda nelle metodologie di test.
Poi ragazzi, se ci attacchiamo a queste cose è finita... Piuttosto, fa maggiormente la differenza la selezione dei giochi che si decide di testare ed è ovvio che c'è un margine di soggettività in questo. A voler giocare "sporco", testando i giochi giusti si può favorire una scheda piuttosto che un'altra, ma non credo sia questo il caso.
Comunque rimane il suggerimento di guardare più recensioni per farsi un'idea più generale. E sinceramente, facendo così, non ho mai riscontrato grosse differenze: al massimo un +-5%, che non sposta più di tanto le intenzioni di acquisto.
Cosa che faccio sempre, e comunque ho solo detto che non aggiorna quasi mai i valori raggiunti dalle altre schede, se volete dire che non è vero , fate vobis, ci sono vecchie recensioni che possono dimostrare quello che dico, dopo il flop delle recensioni fatte col 5800X di novembre da techpowerup con guarda caso la 4080 FE https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-founders-edition/5.html
hanno deciso di aggiornare il loro sistema ad un 13900k, ottima scelta per nvidia ma così così per le GPU AMD perchè con i ryzen la scheda lavora meglio sia per SAM che per altre circostanze, non valido in tutti i tipi di giochi, ma non è un dato trascurabile. Se poi volete negare anche questo accomodatevi.
Ritornando ai driver, da dicembre ad oggi, sono 5 mesi.


Revision Number
Adrenalin 22.11.2 Recommended (WHQL)
File Size
546 MB
Release Date
12/8/2022

Successivamente sono usciti 4 driver WHQL
 
hanno deciso di aggiornare il loro sistema ad un 13900k, ottima scelta per nvidia ma così così per le GPU AMD perchè con i ryzen la scheda lavora meglio sia per SAM che per altre circostanze, non valido in tutti i tipi di giochi, ma non è un dato trascurabile. Se poi volete negare anche questo accomodatevi.
se la scheda dipende dalla CPU non va bene, significa che AMD ha "barato", le CPU Intel sono neutre rispetto alla scheda video, per quale motivo dovrebbero testare su una CPU AMD? inoltre il direct storage fa parte delle specifiche PCI express, anch'esso non dipende (o non dovrebbe) dipendere dall'accoppiata CPU-GPU
che un gioco vada meglio su GPU AMD ci sta, dipende dal gioco, così come se va meglio su NVidia, ma imputare test non equi a TechPowerUp perché fa i benchmark su Intel e ate non garba beh... è parecchio arrampicarsi sugli specchi
 
se la scheda dipende dalla CPU non va bene, significa che AMD ha "barato", le CPU Intel sono neutre rispetto alla scheda video, per quale motivo dovrebbero testare su una CPU AMD? inoltre il direct storage fa parte delle specifiche PCI express, anch'esso non dipende (o non dovrebbe) dipendere dall'accoppiata CPU-GPU
che un gioco vada meglio su GPU AMD ci sta, dipende dal gioco, così come se va meglio su NVidia, ma imputare test non equi a TechPowerUp perché fa i benchmark su Intel e ate non garba beh... è parecchio arrampicarsi sugli specchi
Scusa perchè mi metti in bocca cose che non ho scritto, ho solo espresso un mio pensiero che rispecchia quello che l'hardware in commercio propone, mai detto test non equi o simili, dimmi dove l'avrei scritto grazie, se poi le nvidia a causa del loro schedule software hanno bisogno di cpu molto potenti, non è sicuramente colpa mia 😅
Allora potevano continuare a usare il 5800x
 
Non esistono test più o meno "equi" imho.

Esistono test più o meno vicini alle situazioni di alcuni utenti, preferibilmente (ma non necessariamente) della maggioranza.

Non è che bisogna testare su intel perché è neutrale. Si può benissimo testare su amd (e viceversa) e sapere che chi ha amd avrà quella situazione e chi intel ne avrà una un po' diversa (e viceversa). Basta saperlo.

La "neutralità" è impossibile da raggiungere, con tutte le variabili in gioco dentro ad un pc (cpu, mobo, dissipazione, ram, risoluzione, upsacling, ecc ecc...) è impossibile isolarne completamente una sola (gpu o quello che è).
Quindi l'importante è conoscere le differenze per contestualizzare i dati... è l'unica strada possibile.
 
ho solo espresso un mio pensiero che rispecchia quello che l'hardware in commercio propone
lungi da me contestare il pensiero ma se rileggi il tuo post dici chiaramente (cito testualmetente)
hanno deciso di aggiornare il loro sistema ad un 13900k, ottima scelta per nvidia ma così così per le GPU AMD perchè con i ryzen la scheda lavora meglio sia per SAM che per altre circostanze
non ti metto in bocca parole non dette, è ciò che hai scritto, forse intendevi un'altra cosa ma scritto così sembra che le prestazioni ottimali si ottengano solo accoppiando hw (CPU+GPU) di AMD
Non è che bisogna testare su intel perché è neutrale
vero fino a un certo punto

comunque penso semplicemente che il cambio di piattaforma base sia dovuto al fatto di voler testare le schede con una CPU di ultima generazione
 
Pubblicità
Pubblicità
Indietro
Top