UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Questo è un grosso problema perchè non vedo a che pro, uno che ha una 3060 o una 3060 ti dovrebbe comprare una scheda di stesso segmento ma di generazione nuova che ha più o meno le stesse prestazioni.. per il DLSS3? Si ok, può essere un ottimo boost ma se diventa solo per questo.. al periodo, quando comprai la 1070, questa stando ai benchmarks andava all'incirca come una 980ti, è progresso tecnologico ma se la nuova va come il segmento della vecchia mi sembra un pò na mezza follia.. mi sarei aspettato le prestazioni di una 3070/3070 ti dalla 4060.. 🤨
Infatti uno con la 3060/ 3060 ti se ne sta buono e aspetta le prossime generazioni a meno che non gli gira di cambiare monitor passare a risoluzioni superiori.

Tornando al discorso di @pribolo
Sarebbe bello e sopratutto corretto verso l'utenza che oggi è talmente confusa che spreca i soldi per schede che nemmeno sfrutta, ecco la politica marketing celata dietro questa scelta
 
Concordo con quello che hai scritto. RTX3070\RTX3070ti, ma in parte anche RTX3080 10GB, sono nate limitate dalla memoria. Con la RTX3070, l'ho sperimentato io stesso addirittura all'uscita con MSFS2020.
Però c'è anche da dire che spesso la limitazione imposta dalla VRAM costringe semplicemente ad abbassare di uno step le texture rispetto a quanto potrebbe gestire una scheda analoga per potenza ma con più VRAM (una ipotetica RTX3070 16GB, ad esempio).
Insomma, nei benchmark a volte viene fatto passare come un problema più grave di quello che è, considerando che i dettagli si possono abbassare. Tuttavia, sono compromessi che si aggiungono e non fanno mai piacere.

Del resto, non per diferendere Nvidia, azienda tra le peggiori al mondo come politiche anti-consumer, ma la 3070 è nata con un bus che non consentiva una scelta di memoria al 100% corretta, perchè idealmente avrebbe dovuto avere a disposizione 12GB di VRAM per non avere problemi in nessuna caso. Tuttavia il bus 256 bit lo impedisce, a meno di non usare memoria a densità diverse che però non sono mai una soluzione ideale. Quindi Nvidia aveva due scelte: sovradimensionare dotandola di 16GB di VRAM che non sarebbero mai stati sfruttati totalmente, oppure risparmiare usandone 8 (ovviamente il risparmio l'hanno usato per aumentare il margine). Sulla RTX3070 si è scelta la seconda strada, mentre, ad esempio, sulla RTX3060 si è scelta la prima: probabilmente 6GB di VRAM sono stati ritenuti troppo limitanti e allora ne hanno messi 12, che però su una RTX3060 non servono mai (l'ideale sarebbe stato 8, ma non si poteva...).
C'è anche da dire che su alcune schede la scelta è stata "obbligata" dalla tipologia di ram utilizzata
Le GDDR6X usate dalla 3070Ti in su non avevano moduli a doppia densità, quindi per aumentarla avrebbero dovuto raddoppiare i moduli e montarli in "clamshell" come sulle 3090 (che è una soluzione non economica e neppure ottimale)

Parte della lineup, compresa la 3070 liscia è stata limitata da questa scelta (perché immaginati se usciva una 3070 16 GB, quando sulla "Ti" non avevano potuto metterli e sulle 3080 si erano limitati a 10 GB come sarebbe apparsa la lineup... 🤣)

Come hai detto invece su 3060 e 3050 sono stati costretti ad andare sulla doppia densità, perché ormai andare sotto agli 8 GB era percepito dagli utenti come un problema (complice anche tutta la pubblicità fatta da AMD in tal senso e dal fatto che già le 2060 mostravano che 6GB erano pochi per gli standard attuali)

Il problema è quello che stiamo cominciando a vedere anche sulle DDR5, dove il raddoppio fisiologico dei moduli (per come vengono costruiti) porta a dover scegliere tra "appena sufficiente" ed "esagerato per il mio uso" con costi che sostanzialmente raddoppiano ad esempio passando da 32 a 64 GB
Sulle RAM infatti hanno cominciato a tirare fuori i moduli "non binari" da 24 GB a banco (che comunque qualche problemuccio stanno dando) per cercare di risolvere questo "problema"
Sulle gpu avrebbero potuto organizzare meglio i bus, ma poi avresti corso il rischio di limitare la scheda per il bandwidth (riducendolo per contenere i costi) o alzato consumi e complessità del progetto (aumentandolo)
Certo una 3080 con bus a 512bit e 16 GB GDDR6 (anziché X) avrebbe permesso di scaglionare meglio i tagli di ram inferiori (ma sarebbe anche costato di più il chip ed il pcb)

Alla fine ogni scelta ha dei compromessi, e sicuramente a nVidia non dispiace produrre schede che dopo pochi anni già fanno venir voglia all'utente di sostituirla, soprattutto se percorrendo questa strada risparmia anche qualcosa in produzione (l'obolescenza programmata è un problema comune in campo hw purtroppo)
 
Tu parli giustamente del bus, ma come diceva Max sopra il bus è solo un numero e alla fine non è nemmeno detto sia così limitante.
Io invece volevo porre l'attenzione sul fatto che, secondo il rumor, la RTX4060 sarà basata sulla AD107-400. L' xx7 di Nvidia è sempre stata la GPU di fascia bassa, solitamente arrivata nel mercato con il nome di xx50.
Quindi, al di là del bus, quello che sta facendo Nvidia è, di nuovo, chiamare RTX4060 una scheda video che normalmente avrebbero venduto una fascia sotto. Questa sarà fascia media nei prezzi (facilmente spareranno 400€ per la RTX4060 e 400 ormai è diventata fascia media, una volta costavano meno), ma nella loro offerta è la fascia bassa.
Esatto. E' una pratica che sta facendo da anni ormai. La prima fu la gtx 680 cu chip GK104, chip che coma saprai bene è di fascia media, infatti un anno dopo venne sostituita dalla gtx 770 che era la gtx 680 ma con le memorie OC di 1Ghz.
Ancora oggi mi chiedo come mai Nvidia per Ampere ha deciso di vendere la sua rtx 3080 con chip GA102, cioè il chip top di gamma di quella architettura. Non succedeva dal 2013 in cui usci la gtx 780 che era su chip GK110, fu l'ultima xx80 ad essere una vera top di gamma, ora lo è la rtx 3080.

Per quanto riguarda il bus hai ragione, non conta nulla. Nvidia ha definito la rtx 4070ti una gpu per il 1440p, quindi se è più veloce della rtx 3090ti, frega niente se ha un bus di 64bit o di 192bit.
Il bus diventa limitante in casi particolari.
 
C'è anche da dire che su alcune schede la scelta è stata "obbligata" dalla tipologia di ram utilizzata
Le GDDR6X usate dalla 3070Ti in su non avevano moduli a doppia densità, quindi per aumentarla avrebbero dovuto raddoppiare i moduli e montarli in "clamshell" come sulle 3090 (che è una soluzione non economica e neppure ottimale)

Parte della lineup, compresa la 3070 liscia è stata limitata da questa scelta (perché immaginati se usciva una 3070 16 GB, quando sulla "Ti" non avevano potuto metterli e sulle 3080 si erano limitati a 10 GB come sarebbe apparsa la lineup... 🤣)

Come hai detto invece su 3060 e 3050 sono stati costretti ad andare sulla doppia densità, perché ormai andare sotto agli 8 GB era percepito dagli utenti come un problema (complice anche tutta la pubblicità fatta da AMD in tal senso e dal fatto che già le 2060 mostravano che 6GB erano pochi per gli standard attuali)

Il problema è quello che stiamo cominciando a vedere anche sulle DDR5, dove il raddoppio fisiologico dei moduli (per come vengono costruiti) porta a dover scegliere tra "appena sufficiente" ed "esagerato per il mio uso" con costi che sostanzialmente raddoppiano ad esempio passando da 32 a 64 GB
Sulle RAM infatti hanno cominciato a tirare fuori i moduli "non binari" da 24 GB a banco (che comunque qualche problemuccio stanno dando) per cercare di risolvere questo "problema"
Sulle gpu avrebbero potuto organizzare meglio i bus, ma poi avresti corso il rischio di limitare la scheda per il bandwidth (riducendolo per contenere i costi) o alzato consumi e complessità del progetto (aumentandolo)
Certo una 3080 con bus a 512bit e 16 GB GDDR6 (anziché X) avrebbe permesso di scaglionare meglio i tagli di ram inferiori (ma sarebbe anche costato di più il chip ed il pcb)

Alla fine ogni scelta ha dei compromessi, e sicuramente a nVidia non dispiace produrre schede che dopo pochi anni già fanno venir voglia all'utente di sostituirla, soprattutto se percorrendo questa strada risparmia anche qualcosa in produzione (l'obolescenza programmata è un problema comune in campo hw purtroppo)

Vero anche quello.
Praticamente tutta la line-up RTX3000 sembra essere nata con il bus sbagliato in termini di tagli di RAM disponibili, un compromesso necessario per raggiungere il rapporto desiderato in termini di banda e costi.
 
Perchè sotto la RTX4060 potrebbe anche non esserci altro, quindi chi non ha 400€ per la scheda grafica (solo per la scheda grafica, poi c'è tutto il resto) semplicemente su PC non gioca.
Che è quello che dicevo qualche pagina indietro. Quella è la cifra minima per una scheda video per loro (per inciso io penso che la 4060 la metteranno a 500 €). Uno non ce li ha? Si compra una Xbox se vuole giocare, altrimenti nisba.
Per loro la fascia bassa sono le console, semplice
 
Vero anche quello.
Praticamente tutta la line-up RTX3000 sembra essere nata con il bus sbagliato in termini di tagli di RAM disponibili, un compromesso necessario per raggiungere il rapporto desiderato in termini di banda e costi.
Ma anche in termini di posizionamento.
La rtx 3080 è un 10% più lenta della rtx 3080ti, mentre quest'ultima è un 3/5% più lenta della rtx 3090.
Nel mentre usci la rtx 3080 12GB che è un 7% più veloce della rtx 3080 10GB, e solo un 3% più lenta della rtx 3080ti.
Cioè mi chiedo che senso ha la rtx 3090, come anche la rtx 3080ti.

Io presi un anno fa la rtx 3080 12GB che non solo ha lo stesso bandwidth della 3090/3080ti ma anche performance molto simili. Ma allora perché non chiamarla rtx 3080 super ? Creano delle confusioni assurde e soprattutto perché non lanciare la rtx 3080 fin da subito con quel bandwidth e quantità di vram ?
 
Tu parli giustamente del bus, ma come diceva Max sopra il bus è solo un numero e alla fine non è nemmeno detto sia così limitante.
Io invece volevo porre l'attenzione sul fatto che, secondo il rumor, la RTX4060 sarà basata sulla AD107-400. L' xx7 di Nvidia è sempre stata la GPU di fascia bassa, solitamente arrivata nel mercato con il nome di xx50.
Quindi, al di là del bus, quello che sta facendo Nvidia è, di nuovo, chiamare RTX4060 una scheda video che normalmente avrebbero venduto una fascia sotto. Questa sarà fascia media nei prezzi (facilmente spareranno 400€ per la RTX4060 e 400 ormai è diventata fascia media, una volta costavano meno), ma nella loro offerta è la fascia bassa.
Esatto. Il bus credo sia il minore dei problemi. Io qui vedo in atto tutta una serie di meccanismi atti al risparmio nei costi di produzione (bus, PCIE 4.0 x8, 8 GB di VRAM) che non si rispecchiano nel costo di vendita.
fatemi una scheda simile e vendetela a 250 euro, ed allora va benissimo.

Questo è un grosso problema perchè non vedo a che pro, uno che ha una 3060 o una 3060 ti dovrebbe comprare una scheda di stesso segmento ma di generazione nuova che ha più o meno le stesse prestazioni.. per il DLSS3? Si ok, può essere un ottimo boost ma se diventa solo per questo.. al periodo, quando comprai la 1070, questa stando ai benchmarks andava all'incirca come una 980ti, è progresso tecnologico ma se la nuova va come il segmento della vecchia mi sembra un pò na mezza follia.. mi sarei aspettato le prestazioni di una 3070/3070 ti dalla 4060.. 🤨
In generale il passaggio generazione su generazione non è mai conveniente o giustificabile, checché cerchino di dirti qui dentro e sul Tubo.
Quindi la 4060 dovrebbe valutarla chi arriva, ad esempio, dalla 2060 Super. E la prospettiva diventa diversa.
 
Parte della lineup, compresa la 3070 liscia è stata limitata da questa scelta (perché immaginati se usciva una 3070 16 GB, quando sulla "Ti" non avevano potuto metterli e sulle 3080 si erano limitati a 10 GB come sarebbe apparsa la lineup... 🤣)

Guarda non si sono fatti alcun problema a mettere sul mercato una 3060 12 GB vs 3060 Ti / 3070 8 GB…

Il driving factor qui non è MAI la coerenza della lineup, bensì il margine. Le 3070 con 12/16 GB gli sarebbe costata di più da produrre, così come una 3080 con 12 GB dal principio, e loro guardano solo al margine.

Poi il fatto di avere gente che oggi, dopo 2 anni, si sta chiedendo se “8 GB sono abbastanza” non fa altro che supportare la loro politica di mercato.
 
In generale il passaggio generazione su generazione non è mai conveniente o giustificabile, checché cerchino di dirti qui dentro e sul Tubo.
Non sempre, ricordo la gtx 1070 non solo aveva 2GB di vram in più alla ex flagship, ma superava persino la titan in performance in game, il tutto a 375 euro.
Anche la gtx 970 fu un gran bella gpu che giustificava il passaggio generazionale. Aveva """1GB""" di vram in più della ex flag ship ( gtx 780ti ), andava quanto quest'ultima ma consumando un botto in meno, aveva un supporto migliore delle librerie vulkan e directx 12 ( Keplar invece andava malissimo con quelle librerie ) e costava solo 340 euro.
Però la più straordinaria gpu, che non soltanto giustificava il passaggio generazionale ma che risultava persino un affare da non perdere era la gtx 1080ti. Non solo era un 67% più veloce della precedente flag ship ma aveva lo stesso tdp, 5GB di vram in più, e costava 650 euro. Era talmente potente che amd non aveva nessun tipo di risposta per quella fascia.
Ora queste cose non succedono più, infatti nonostante la rtx 4070ti vada più veloce della ex flagship consumando anche molto meno, però quella "magia" è scomparsa, poiché te la propongono a 900+ euro, quindi il rapporto tra performance/costo va a farsi benedire insieme alla bontà del passaggio generazionale.
 
Ultima modifica:
Guarda non si sono fatti alcun problema a mettere sul mercato una 3060 12 GB vs 3060 Ti / 3070 8 GB…

Il driving factor qui non è MAI la coerenza della lineup, bensì il margine. Le 3070 con 12/16 GB gli sarebbe costata di più da produrre, così come una 3080 con 12 GB dal principio, e loro guardano solo al margine.

Poi il fatto di avere gente che oggi, dopo 2 anni, si sta chiedendo se “8 GB sono abbastanza” non fa altro che supportare la loro politica di mercato.
E' diverso: non hanno potuto fare diversamente per la 3060
Doveva avere bus a 192bit altrimenti non avrebbe raggiunto il bandwidth che avevano previsto e pertanto la scelta era tra 6 GB e 12 GB
Ma i 6 GB sapevano che sarebbero stati visti malissimo dall'utenza visto che già con la 2060 avevano sperimentato la cosa

L'alternativa era tagliarti il bus a 128bit (cosa che poi hanno fatto adesso con le 3060 8 GB in vendita), ma non avrebbe avuto le prestazioni che volevano loro (e già la 3060 liscia è ben staccata dalla 3060Ti, figurati dove sarebbe con il bus tagliato per gli 8 GB)

Ed un conto, anche per l'utente poco esperto che legge, è vedere 12 vs 8, tutt'altro effetto fa vedere 16 vs 8 😉
 
Cioè mi chiedo che senso ha la rtx 3090, come anche la rtx 3080ti.

In realtà ha tutto una risposta, solo che non è quella a favore della clientela.
La RTX 3090 fu introdotta perché serviva la scheda del “io ce l’ho più lungo” in quella generazione. Al momento quello era il meglio che potevano fare, e fa nulla se la distanza dalla 3080 non era molta e la scheda aveva alcuni problemi (come le temperature delle VRAM). Dovevano uscire con quella scheda, ben sapendo che qualcuno che la comprava ci sarebbe stato comunque. Poi hanno corretto il tiro con la 3090Ti, alzando ancora l’asticella del prezzo.

La RTX 3080Ti fu un operazione di marketing. La 3080 era venduta da mesi a prezzo ben sopra l’ MSRP e loro hanno pensato bene di rendere “ufficiale” il nuovo prezzo spacciando un lieve miglioramento per un nuovo prodotto, rendendo più “giustificabile” agli occhi della stampa il fatto che costassero 1200 euro e non 800 come promesso al lancio.

Questa è Nvidia eh…
 
In realtà ha tutto una risposta, solo che non è quella a favore della clientela.
La RTX 3090 fu introdotta perché serviva la scheda del “io ce l’ho più lungo” in quella generazione. Al momento quello era il meglio che potevano fare, e fa nulla se la distanza dalla 3080 non era molta e la scheda aveva alcuni problemi (come le temperature delle VRAM). Dovevano uscire con quella scheda, ben sapendo che qualcuno che la comprava ci sarebbe stato comunque. Poi hanno corretto il tiro con la 3090Ti, alzando ancora l’asticella del prezzo.

La RTX 3080Ti fu un operazione di marketing. La 3080 era venduta da mesi a prezzo ben sopra l’ MSRP e loro hanno pensato bene di rendere “ufficiale” il nuovo prezzo spacciando un lieve miglioramento per un nuovo prodotto, rendendo più “giustificabile” agli occhi della stampa il fatto che costassero 1200 euro e non 800 come promesso al lancio.

Questa è Nvidia eh…
Quindi in poche parole @Kal El con la rtx 4090 ce l'ha lungo! 🤣
Tornando seri, tenendo in considerazione il fatto che tu non sia un veggente, secondo te ( pura opinione e pensiero personale ) un ipotetica rtx 5080 avrà lo stesso prezzo msrp della rtx 4080 o alzeranno ulteriormente l'asticella ?
 
E' diverso: non hanno potuto fare diversamente per la 3060
Doveva avere bus a 192bit altrimenti non avrebbe raggiunto il bandwidth che avevano previsto e pertanto la scelta era tra 6 GB e 12 GB
Ma i 6 GB sapevano che sarebbero stati visti malissimo dall'utenza visto che già con la 2060 avevano sperimentato la cosa

L'alternativa era tagliarti il bus a 128bit (cosa che poi hanno fatto adesso con le 3060 8 GB in vendita), ma non avrebbe avuto le prestazioni che volevano loro (e già la 3060 liscia è ben staccata dalla 3060Ti, figurati dove sarebbe con il bus tagliato per gli 8 GB)

Ed un conto, anche per l'utente poco esperto che legge, è vedere 12 vs 8, tutt'altro effetto fa vedere 16 vs 8 😉
Guarda che non è che ti piove dal cielo il bus ed allora ti chiedi “ed ora quanta RAM ci metto ?“ 😂
Loro lo sapevano dal principio come sarebbe stata la lineup, da prima che fosse lanciata la 3080…
Le loro scelte sono state consapevoli e, ancora una volta, contro la clientela.
Per la 3060 per me ci hanno anche pensato alla versione 6 GB, poi si saranno fermati dicendo “questo è troppo anche per noi”
 
Quindi in poche parole @Kal El con la rtx 4090 ce l'ha lungo! 🤣
Tornando seri, tenendo in considerazione il fatto che tu non sia un veggente, secondo te ( pura opinione e pensiero personale ) un ipotetica rtx 5080 avrà lo stesso prezzo msrp della rtx 4080 o alzeranno ulteriormente l'asticella ?
Per me dipenderà dalle vendite delle serie 40.
I prezzi sono scesi abbastanza in fretta, segno che Nvidia si è accorta che non stava vendendo come pensava.
Se l’indicazione di mercato sarà quella, allora quantomeno non alzeranno l’asticella…

Sotto covid il Giacchetta si era convinto che la gente avrebbe comprato schede A QUALUNQUE PREZZO, perché quello stava accadendo. Ora sta ricevendo indicazioni diverse.
 
Pubblicità
Pubblicità
Indietro
Top