UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Situazione irripetibile causa Samsung ed il suo mediocre processo produttivo (frequenza bassa, consumi, calore): hanno dovuto usare per entrambe le fasce il GA-102 differenziandole per una manciata di Tensor, RT e Cuda. Il GA-104 delle 70 sarebbe stato troppo poco performante per la classe 80. Per una volta nella storia è andata bene al cliente.
Sono d'accordo, infatti l'ultima volta che abbiamo visto una classe xx80 con la gpu top di gamma è stato nel 2013 con la gtx 780.
Però ciò non toglie che la rtx 4080 è stata castrata ( troppo ) volutamente per aumentare il gap con la 4090.
 
Sono d'accordo, infatti l'ultima volta che abbiamo visto una classe xx80 con la gpu top di gamma è stato nel 2013 con la gtx 780.
Però ciò non toglie che la rtx 4080 è stata castrata ( troppo ) volutamente per aumentare il gap con la 4090.
Ricordati però il GRANDE PIANO che Nvidia sta portando avanti da anni ovvero la segmentazione artificiosa delle fasce. Se il chippone FULL ha 18 mila core io Nvidia, invece di metterti una 4090 a 18 mila (o giù di lì) e 3 schede a scendere ti metto:

1) 4090TI a 18 mila;
2) 4090 a 16 mila;
3) 4080TI a 14 mila;

...poi riprendiamo su AD-103:

4) 4080 a 10 mila;

...scendiamo ancora un po' con AD-104:

5) 4070TI a 7.5 mila;
6) 4070 a 6 mila;

...AD-106:

7) 4060TI con 4.6 mila;
8) 4060 16GB con 4 mila;
9) 4060 8GB sempre a 4 mila.


Con 4 chip qui sopra ho fatto 9 linee di schede...ovviamente fatte uscire cadenzate in modo che quando una GPU è fuori da un po' e si è svalutata immediatamente riporto in alto il prezzo invogliando la gente con queste versione di inframezzo.

Una volta avevi 3 fasce principali con una scheda per fascia: la 60, la 70 e la 80. Poi chi voleva eccedere aveva al possibilità della top TI. Adesso è tutto un casino e quando c'è casino è sempre il cliente che lo prende in quel posto.

Sono dei pirati del marketing.
 
Ultima modifica:
Situazione irripetibile causa Samsung ed il suo mediocre processo produttivo (frequenza bassa, consumi, calore): hanno dovuto usare per entrambe le fasce il GA-102 differenziandole per una manciata di Tensor, RT e Cuda. Il GA-104 delle 70 sarebbe stato troppo poco performante per la classe 80. Per una volta nella storia è andata bene al cliente.
Secondo certi insiders Nvidia ha usato GA-102 per le 80 perché samsung aveva rese così basse che per evitare una causa legale quei wafer li ha praticamente "regalati".
GA-103 è stato progettato ed usato nei laptop, ma date le condizioni non era più necessario usarlo sulle schede discrete.
 
Questo non è lo scenario peggiore anche se c’è già Ashley, ma lo scenario peggiore è appena incontrerai Ashley, quando c’è pioggia e vento, che da 130fps ti passa ad 80fps con un bottleneck pesante.
Il discorso dell’IPC è corretto, questo non è il solo gioco su cui accade, ma succede su tutti i giochi fino ad ora da me provati, eccetto cb2077.
A me non viene in tasca nulla, sono il primo che ci rimette soldi, e lo ripeto a gran voce, il 5900x non è adatto ad una 4090.
Difendere dell’hardware è ironico, sono pezzi di silicio dallo 0 valore umano, quindi se c’è da disprezzare, io disprezzo, tutto qui.
Sul discorso RE4, è ottimizzato da far ridere, e sulle gpu nvidia pesa enormemente sulla cpu, guarda caso è un gioco partenership Amd.
Come i giochi che hanno partnership nvidia e girano male su AMD. dipende anche dalle sponsorship. Non è colpa sempre di chi produce hardware, ma anche delle sponsorizzazioni che le software house trovano x finanziare il gioco.

D'altronde chi non scrive righe di codice difficilmente capisce quanto sia dura per una sw house cercare di lanciare al meglio il proprio prodotto.

E poi spesso i dev di oggi non hanno voglia di ottimizzare quanto fanno in quanto c'è hw potente che regge comunque l'urto delle male implementazioni
 
Viene da pensare dove siano finiti i 5.5 miliardi di transistor in più, visto che hanno tagliato su tutto (bus, ROPs, SM). Tensor e RT cores di nuova generazione sono così "grossi"?

EDIT: Sono finiti nella cache L2 probabilmente... Ci ho pensato dopo.

esatto, se tiravano via pure quella manco la 3050 pigliavano... :D
 
Se avessero tolto pure quelli avrebbero creato la GPU più bandwidth limited della storia. Praticamente metà dei cuda rimanevano alla finestra a guardare la maggior parte del tempo.

già mi aspetto una bella zozzeria con la 4060 liscia su AD107, sarà la x60 più scarsa mai vista...
 
ma in tutta onestà non ne capisco il senso

il senso è venderti una scheda infima a 350€, giocando ancora una volta la carta del DLSS3...

più si scende più veramente stanno facendo i salti mortali per cercare di superare per lo meno la scheda della passata gen che sostituiscono, questa se va bene andrà come la 3060 liscia in FHD, ma le prenderà salendo di risoluzione...
 
il senso è venderti una scheda infima a 350€, giocando ancora una volta la carta del DLSS3...

più si scende più veramente fanno i salti mortali per cercare di superare per lo meno la scheda della passata gen che sostituiscono, questa se va bene andrà come la 3060 liscia in FHD, ma le prenderà salendo di risoluzione..
beh anche con la carta del dlss 3 mi sembra un offerta debole, a meno che non inizieranno ad uscire tutti i giochi compatibili

Cioè mi sembra una mossa comunque troppo azzardata
 
il senso è venderti una scheda infima a 350€, giocando ancora una volta la carta del DLSS3...

più si scende più veramente stanno facendo i salti mortali per cercare di superare per lo meno la scheda della passata gen che sostituiscono, questa se va bene andrà come la 3060 liscia in FHD, ma le prenderà salendo di risoluzione...
Se davvero va come una 3060 (e le premesse ci sono) raggiungono il massimo livello di ridicolaggine ….

beh anche con la carta del dlss 3 mi sembra un offerta debole, a meno che non inizieranno ad uscire tutti i giochi compatibili

Cioè mi sembra una mossa comunque troppo azzardata
Il DLSS3 sta ricevendo ampio supporto, perché Nvidia ha grossa leva sugli sviluppatori, ma è assurdo che il prodotto diventi appetibile solo con DLSS3
 
la 4060-Ti è una scheda da full-hd maxato, dalla recensione di Toms in realtà sembrerebbe andar bene anche per un QHD senza eccessive pretese. Prezzo a parte, che è troppo alto come al solito, non vedo il motivo di dover preferire una 3060-ti visto che il costo è quello e la 4060-Ti consuma 40W in meno
 
la 4060-Ti è una scheda da full-hd maxato, dalla recensione di Toms in realtà sembrerebbe andar bene anche per un QHD senza eccessive pretese. Prezzo a parte, che è troppo alto come al solito, non vedo il motivo di dover preferire una 3060-ti visto che il costo è quello e la 4060-Ti consuma 40W in meno
si infatti non ci sta effettivamente di meglio e uno deve comprare una scheda

Però l'esiguo salto prestazionale fa impressione, praticamente in full hd è una 3070 che però in QHD perde qualche punto che consuma meno ed ha il dlss 3

La 3060 ti della scorsa gen aveva le prestazioni di una 2080 super
 
ma in tutta onestà non ne capisco il senso
Basta vedere cosa offrono le altre case... 0 competizione = perché offrire qualcosa in più se invece posso fare maggior guadagno?

Anche perché, anche se vanno come le schede della scorsa generazione allo stesso prezzo chiunque debba acquistare ora va sulle nuove
Se io sono senza scheda ed ho 500€ da spendere oggi tra una 3070 ed una 4060Ti prendo ovviamente la nuova

La soluzione sarebbe lasciargliele sugli scaffali, ma anche così ne deve passare di tempo prima che si adeguino perché alla fine sono loro che decidono quante produrne (e spedire) e soprattutto su quali mercati indirizzare i chip (visto che anche le mobile hanno gli stessi identici chip)
 
Pubblicità
Pubblicità
Indietro
Top