UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Sapevano benissimo che gli 8 GB non erano una scelta molto futuribile, ma con quel bus l’opzione di usarne 16 andava contro la loro politica di risparmio per massimizzare i margini, ed avrebbe posto in cattiva luce la 3080 con i suoi 10 GB.

bhe però poi l'avevano fatta una cosa simile, con la 3060 liscia e i suoi inutili 12GB, maggiori sia degli 8GB della sorella maggiore 3060Ti, che del quantitativo previsto sulle 3070/3070Ti e 3080 :D
 
bhe però poi l'avevano fatta una cosa simile, con la 3060 liscia e i suoi inutili 12GB, maggiori sia degli 8GB della sorella maggiore 3060Ti, che del quantitativo previsto sulle 3070/3070Ti e 3080 :D

Sì è un discorso che è già stato affrontato nelle pagine precedenti. Sulla 3060 sono stati costretti perchè 6GB sarebbero stati percepiti come troppo limitanti (e in parte sarebbe anche stato vero) e avrebbero minato eccessivamente l'appetibilità della scheda.
Purtroppo un po' tutte le Ampere sono nate col bus sbagliato...
 
bhe però poi l'avevano fatta una cosa simile, con la 3060 liscia e i suoi inutili 12GB, maggiori sia degli 8GB della sorella maggiore 3060Ti, che del quantitativo previsto sulle 3070/3070Ti e 3080 :D
Inutili non direi, lo sarebbero stati in un era del gaming dove 8GB di vram erano più che abbondanti, cosa che oggi giorno è cambiato drasticamente. La mia ragazza per esempio non ha riscontrato tutti i problemi che gli utenti hanno avuto con gpu da 8GB ben più potenti della sua rtx 3060.
Per esempio su Hogwards Legacy, The last of us, Resident evil 4 remake ecc lei ha potuto mettere le texture al max e non ha avuto problemi di crash, freeze e forte stuttering fin dal day1.
Nel 2016 era inutile mettere 8GB sulla gtx 1070, poiché era una gpu per il 1080p alto refresh rate e a quella risoluzione bastavano anche 6GB. Però con il tempo quei 2GB di vram sono stati utili per maxxare le texture al massimo nei giochi più moderni ( 2020/2021 ) cosa che una gtx 1660ti ( stesse performance ) non sempre poteva fare con i suoi 6GB, quindi sarebbe stato corretto dire "eccessivi" ma non inutili.

Quindi 12GB inutili non direi visto che ti permettono di maxxare le texture, forse eccessivi visto la fascia di performance, quello si, ma sempre meglio abbondare.
 
Sì è un discorso che è già stato affrontato nelle pagine precedenti. Sulla 3060 sono stati costretti perchè 6GB sarebbero stati percepiti come troppo limitanti (e in parte sarebbe anche stato vero) e avrebbero minato eccessivamente l'appetibilità della scheda.
Purtroppo un po' tutte le Ampere sono nate col bus sbagliato...

certamente, ma questa è una conseguenza del "credo" comune, in quella fascia e con le potenzialità messe sul piatto da quella GPU 6GB sarebbero stati più che sufficienti per il suo target di utilizzo...

alla fine si è ben visto che tutta quella vram non ha reso la 3060 più future-proof delle altre, purtroppo entrano in gioco altri aspetti, anche se molti non lo capiscono o non lo vogliono capire...
 
certamente, ma questa è una conseguenza del "credo" comune, in quella fascia e con le potenzialità messe sul piatto da quella GPU 6GB sarebbero stati più che sufficienti per il suo target di utilizzo...

alla fine si è ben visto che tutta quella vram non ha reso la 3060 più future-proof delle altre, purtroppo entrano in gioco altri aspetti, anche se molti non lo capiscono o non lo vogliono capire...
Ma cosi giocavi con le texture su basso/medio in molti giochi moderni. Perché ?
Come già detto sono eccessivi ma non inutili e ho spiegato il motivo.
 
Ma cosi giocavi con le texture su basso/medio in molti giochi moderni. Perché ?
Come già detto sono eccessivi ma non inutili e ho spiegato il motivo.
la 3060 ha come target quale risoluzione? il 1440p? il 4k?
no di sicuro, diciamo più un 1080p, e a quella res non sono necessari 12GB di vram, e in ogni caso maxando a prescindere nei titoli più esosi arrancherebbe molto prima a livello di potenza di calcolo GPU che non per sforamento di vram...

oppure sulla base dei 12GB vogliamo affermare che quella scheda sarebbe da preferirsi ad una 3070/3070Ti/3080?
 
Ultima modifica:
ho in mente di acquistare un oled 4k, ero orientato sui panasonic (lz980) ma vorrei capire se hanno o meno il gsync (avendo nvidia come vga) e se è una cosa necessaria che il tv lo abbia (so che in genere i pana hanno solo amd freesync e vrr), tra l'altro ho letto che sony e panasonic non mettono il gsync nei loro tv, ma il vrr
ma qui dicono che lz1500 lo ha il gsync https://www.hdblog.it/tv/articoli/n562108/recensione-tv-panasonic-oled-lz1500-il-migliore/
 
la 3060 ha come target quale risoluzione? il 1440p? il 4k?
no di sicuro, diciamo più un 1080p, e a quella res non sono necessari 12GB di vram, e in ogni caso maxando a prescindere nei titoli più esosi arrancherebbe molto prima a livello di potenza di calcolo GPU che non per sforamento di vram...

oppure sulla base dei 12GB vogliamo affermare che quella scheda sarebbe da preferirsi ad una 3070/3070Ti/3080?

12GB sono fin troppi, ma 6GB potevano in effetti essere pochi. Per una scheda da FHD "spinto" come la 3060 l'ideale sarebbero stati 8, ma non si poteva senza cambiare il bandwidth a disposizione... E' un discorso infinito 🤣

ho in mente di acquistare un oled 4k, ero orientato sui panasonic (lz980) ma vorrei capire se hanno o meno il gsync (avendo nvidia come vga) e se è una cosa necessaria che il tv lo abbia (so che in genere i pana hanno solo amd freesync e vrr), tra l'altro ho letto che sony e panasonic non mettono il gsync nei loro tv, ma il vrr
ma qui dicono che lz1500 lo ha il gsync https://www.hdblog.it/tv/articoli/n562108/recensione-tv-panasonic-oled-lz1500-il-migliore/

Non mi sembra il posto più corretto dove fare questa domanda.
Puoi aprire una discussione qui: https://forum.tomshw.it/forums/tv-e-videoproiettori.83/
 
la 3060 ha come target quale risoluzione? il 1440p? il 4k?
no di sicuro, diciamo più un 1080p, e a quella res non sono necessari 12GB di vram, e in ogni caso maxando a prescindere nei titoli più esosi arrancherebbe molto prima a livello di potenza di calcolo GPU che non per sforamento di vram...

oppure sulla base dei 12GB vogliamo affermare che quella scheda sarebbe da preferirsi ad una 3070/3070Ti/3080?
Mai detto ne pensato ciò che hai scritto nella tua ultima frase.
Si capisco che è una gpu per il 1080p ma la mia ragazza ci gioca con dlss in 1440p. Quindi nel suo caso inutili non sono stati.
Come ha detto @pribolo è tutto un problema che si è venuto a creare per via del bus, quindi era meglio dotarla di 12Gb rispetto ai 6GB, ma in realtà io penso che avrebbero dovuto modificare il bus cosi da potergli mettere 8GB.
--- i due messaggi sono stati uniti ---
ho in mente di acquistare un oled 4k, ero orientato sui panasonic (lz980) ma vorrei capire se hanno o meno il gsync (avendo nvidia come vga) e se è una cosa necessaria che il tv lo abbia (so che in genere i pana hanno solo amd freesync e vrr), tra l'altro ho letto che sony e panasonic non mettono il gsync nei loro tv, ma il vrr
ma qui dicono che lz1500 lo ha il gsync https://www.hdblog.it/tv/articoli/n562108/recensione-tv-panasonic-oled-lz1500-il-migliore/
Sei in una discussione ufficiale per le rtx 4000 😅, dovresti creare una discussione a parte nella sezione Monitor.
 
12GB sono fin troppi, ma 6GB potevano in effetti essere pochi. Per una scheda da FHD "spinto" come la 3060 l'ideale sarebbero stati 8, ma non si poteva senza cambiare il bandwidth a disposizione... E' un discorso infinito 🤣

l'ideale secondo me erano 6GB con qualche decina di euro in meno sul prezzo finale... :D
ma alla fine con Ampere avevano fatto una line-up un pò particolare, già a partire dagli 8GB sulla 3050 liscia...

poi fin c'è chi li considera un valore aggiunto su GPU del genere significa che hanno fatto benissimo a metterceli...
 
bhe però poi l'avevano fatta una cosa simile, con la 3060 liscia e i suoi inutili 12GB, maggiori sia degli 8GB della sorella maggiore 3060Ti, che del quantitativo previsto sulle 3070/3070Ti e 3080 :D
Verissimo, ma se avessero proposto una 3060 con 6 GB veramente sarebbero caduti nel ridicolo eh
 
l'ideale secondo me erano 6GB con qualche decina di euro in meno sul prezzo finale... :D
ma alla fine con Ampere avevano fatto una line-up un pò particolare, già a partire dagli 8GB sulla 3050 liscia...

poi fin c'è chi li considera un valore aggiunto su GPU del genere significa che hanno fatto benissimo a metterceli...
Invece No, è un assurdità mettere ad una rtx 3060 6GB di vram. Ok che è una delle peggiori gpu di ampere ma è comunque più prestante di una gtx 1080ti / rx 5700xt in alcuni giochi moderni, non esageriamo, altrimenti con 6GB l'utente avrebbe dovuto scendere a compromessi con le texture persino in 1080p.
Penso che chiunque sarebbe disposto a spendere una decina di euro per avere maggiore vram a disposizione.
 
Invece No, è un assurdità mettere ad una rtx 3060 6GB di vram. Ok che è una delle peggiori gpu di ampere ma è comunque più prestante di una gtx 1080ti / rx 5700xt in alcuni giochi moderni, non esageriamo, altrimenti con 6GB l'utente avrebbe dovuto scendere a compromessi con le texture persino in 1080p.
Penso che chiunque sarebbe disposto a spendere una decina di euro per avere maggiore vram a disposizione.

come detto sono punti di vista, è normale pensarla diversamente...

a compromessi bisognerà scendere ugualmente prima o poi, ma in quel caso più per i limiti di GA106 che per il quantitativo di vram a bordo...

del resto è NVIDIA stessa che ha ritenuto sufficienti 8/10GB su soluzioni di fascia ben superiore a quella, tutto va relazionato alle potenzialità della GPU in uso alla fine.. :)
 
Pubblicità
Pubblicità
Indietro
Top