UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Perché sono schede spinte moltissimo, una 4090 al 95% di prestazioni consuma già molto meno. Non ricordo più dove era il confronto 🤔 forse stava anche sui 400w...
Certo, siccome in molti casi non la riesci a sfruttare il consumo scende sui 370/400W… che restano 100W sopra la 4080. Ma ecco che se non la sfrutti al 100% il discorso di avere la “scheda definitiva” decade.
Ribadisco: è la scheda del “ce l’ho più lungo”, null’altro.
La 4080 che qui con lungimiranza definite “sbagliata” è l’unica con la 4070Ti a portare una vera evoluzione: prestazioni migliorate di tanto rispetto alla 3090Ti e consumo quasi dimezzato (Per la 4070Ti prestazioni uguali a meno di metà consumo).
La 4090 aumenta di molto le prestazioni a spese di un consumo che riesce nei picchi ad essere pure peggio della 3090 liscia

1680499186944.png

Ora l’unica cosa di “sbagliato“ che c’è nelle 4070Ti e 4080 è il prezzo: a 650/900 euro rispettivamente, sarebbero le schede perfette di questa generazione.
I prezzi fuori Amazon stanno peraltro scendendo, con le 4070Ti che si trovano sugli 850€ e le 4080 sui 1250€: ancora alti ma diversi da quelli di lancio.
 
la mia non supera i 380-400W


Inviato dal mio iPhone utilizzando Tapatalk Pro
Tu vedi il consumo medio, non gli spike (che ho riportato sopra), e con un 12700K non la sfrutti a pieno Sempre.
Anche la 4080 (con un 13900K) spesso mi sta sui 270/280W con giochi maxati che non la usano a fondo.

Già CP2077 con RT porta la tua scheda a superare i 450W

1680499617194.webp
 
Tu vedi il consumo medio, non gli spike (che ho riportato sopra), e con un 12700K non la sfrutti a pieno Sempre.
Anche la 4080 (con un 13900K) spesso mi sta sui 270/280W con giochi maxati che non la usano a fondo.

Già CP2077 con RT porta la tua scheda a superare i 450W

Visualizza allegato 456860

quella scheda non la sfrutti sempre neanche con il tuo 13900K……è comunque una GPU mostruosa


Inviato dal mio iPhone utilizzando Tapatalk Pro
 
quella scheda non la sfrutti sempre neanche con il tuo 13900K


Inviato dal mio iPhone utilizzando Tapatalk Pro
Esatto.
Motivo per cui ha ancora meno senso…

Ma io per principio una scheda che consuma 470W non la voglio. Per lo stesso motivo ODIO il 13900K, e gran parte delle CPU recenti. Ottenere prestazioni aumentando i consumi non è progresso.

Sarò felice quando mi tireranno fuori una CPU che va il 15% in più del 13900K ma consuma il 40% in meno. Lo preferisco rispetto ad una CPU che va il 30% in più consumando il 30% in più, come sta accadendo in queste ultime gen.
 
Esatto.
Motivo per cui ha ancora meno senso…

Ma io per principio una scheda che consuma 470W non la voglio.

io per principio invece non ho preso la 4080, quel chippettino non merita i soldi che costa

PS: in realtà su Battlefield2042 solo RT e niente DLSS e COD MW2 con DLAA, la mia scheda è quasi sempre al 95-99%

Inviato dal mio iPhone utilizzando Tapatalk Pro
 
io per principio invece non ho preso la 4080, quel chippettino non merita i soldi che costa

PS: in realtà su Battlefield2042 solo RT e niente DLSS e COD MW2 con DLAA, la mia scheda è quadi sempre al 95-99%

Inviato dal mio iPhone utilizzando Tapatalk Pro
Sui soldi potremmo stare a discuterne fino a domani: nessuna scheda oggi merita i soldi che costa.
Ma il dato di fatto è che la 4080 va un 20% in più di una 3090 consumando la metà.
Questa la considero la prima vera evoluzione da anni a questa parte…

Il “chippettino” è un discorso che mi aspetto da Kal El, non da un utente come te. Per quanto mi riguarda Nvidia può tirare fuori una GPU da 10mm2 alla prossima generazione, se mi va il 30% più forte e consuma la metà.
Non sono un feticista, non trovo appagamento dalle dimensioni della GPU. Sono un informatico e giudico prestazioni e consumi.

sui prezzi completamente errati non si discute: la 4080 doveva costare 900-950 euro.
 
Sui soldi potremmo stare a discuterne fino a domani: nessuna scheda oggi merita i soldi che costa.
Ma il dato di fatto è che la 4080 va un 20% in più di una 3090 consumando la metà.
Questa la considero la prima vera evoluzione da anni a questa parte…

Il “chippettino” è un discorso che mi aspetto da Kal El, non da un utente come te. Per quanto mi riguarda Nvidia può tirare fuori una GPU da 10mm2 alla prossima generazione, se mi va il 30% più forte e consuma la metà.
Non sono un feticista, non trovo appagamento dalle dimensioni della GPU. Sono un informatico e giudico prestazioni e consumi.

sui prezzi completamente errati non si discute: la 4080 doveva costare 900-950 euro.

dico solo che è un altro mondo, sono 16400 cudacore contro 9700, Bus diversi…….
poi condivido il tuo discorso , 4080/4090 erano da lasciare sugli scaffali per le cose che abbiamo sempre detto


Inviato dal mio iPhone utilizzando Tapatalk Pro
 
dico solo che è un altro mondo, sono 16400 cudacore contro 9700, Bus diversi…….
poi condivido il tuo discorso , 4080/4090 erano da lasciare sugli scaffali per le cose che abbiamo sempre detto


Inviato dal mio iPhone utilizzando Tapatalk Pro
Ma certo, sono due chip diversi… ma la prossima generazione possono mettere 30000 CUDA e bus a 512 bit ma se poi devo avere picchi di 650W e consumo tipico di 500W per me non è quella la strada da seguire…
Non sarò io a foraggiare questo trend.
Già mi rode aver preso la 4080, visto che la mia idea originaria era la 4070Ti che avrei pagato 800 euro, consuma 230W ed era la soluzione giusta per me. Mi sono fatto come sempre ingolosire dal prezzo della 4080 (l’ho pagata 1090 euro).
 
io per principio invece non ho preso la 4080, quel chippettino non merita i soldi che costa

PS: in realtà su Battlefield2042 solo RT e niente DLSS e COD MW2 con DLAA, la mia scheda è quasi sempre al 95-99%

Inviato dal mio iPhone utilizzando Tapatalk Pro
Infatti è vergognoso che Nvidia abbia creato un chip apposta per la serie xx80, quando con la serie rtx 3000 era tornata a rimettere la classe xx80 ( non ti ) sulla gpu top di gamma.
Tra l'altro creando un distacco dalla 4090 a dir poco imbarazzante.
Potevano benissimo mettere la rtx 4080 sullo stesso chip ma invece dei 9728 cuda, mettergli almeno 12.000 cuda core che sarebbero comunque stati 4000 in meno rispetto alla rtx 4090. Infondo la rtx 3080 la misero sullo stesso chip della rtx 3090.
A questo punto mi aspetto una rtx 4080ti con lo stesso chip della rtx 4090.
Spero che la rtx 5080 ( non ti ) venga messa sul chip top di gamma, altrimenti dovrò aspettare una possibile rtx 5080ti, sempre se i prezzi saranno corretti.
 
Infatti è vergognoso che Nvidia abbia creato un chip apposta per la serie xx80, quando con la serie rtx 3000 era tornata a rimettere la classe xx80 ( non ti ) sulla gpu top di gamma.
Tra l'altro creando un distacco dalla 4090 a dir poco imbarazzante.
Potevano benissimo mettere la rtx 4080 sullo stesso chip ma invece dei 9728 cuda, mettergli almeno 12.000 cuda core che sarebbero comunque stati 4000 in meno rispetto alla rtx 4090. Infondo la rtx 3080 la misero sullo stesso chip della rtx 3090.
A questo punto mi aspetto una rtx 4080ti con lo stesso chip della rtx 4090.
Spero che la rtx 5080 ( non ti ) venga messa sul chip top di gamma, altrimenti dovrò aspettare una possibile rtx 5080ti, sempre se i prezzi saranno corretti.
Ma ribadisco la domanda: a noi di quale chip mettano cosa importa ? A noi devono importare prestazioni e consumo (ed il prezzo, ma su quello non possiamo mettere bocca).
Se le prestazioni che mi aspetto le ottengo con un chip di 10 mm2 che consuma 200W, sono anche più felice.
Magari l’anno prossimo esce una 4080Ti con i chip “difettosi” della 4090 e qualche migliaio di CUDA disattivati. Normale che Nvidia si lasci questi spazi di mercato.
Non è quello che mi interessa, quanto il giusto posizionamento di prezzo.
 
vorrei capire una cosa.. come mai le console hanno la memoria video accoppiata alla ram (si chiama system ram shared o una cosa così) e su pc non si può avere lo stesso con la ram e la vram?
 
vorrei capire una cosa.. come mai le console hanno la memoria video accoppiata alla ram (si chiama system ram shared o una cosa così) e su pc non si può avere lo stesso con la ram e la vram?
non è proprio cosi

Pure i PC usdano lo stesso sistema non è altro che la memeoria condivisa

Sull'argomento "memeoria video" ci sta talmente tanta disinformazione che sembra esserre tornati nel medioevo a confrontarsi "chi ce l'ha più lungo"

1680527114633.png

Quando ti dicono che la scheda "crasha"perchè e`finita la meoria video ti dicono una stronzata

Qaundo il sistema "finisce" la VRAM utilizza la RAM condivisa

Questo si può portare a delle anomalie come dei rallentamenti perchè l'accesso alla memoria condivisa è più lento ma non ci saranno problemi se questo è limitato al framebuffer

Per le console è "diverso" visto che vengono utilizzate principalmente per i giochi viene preferita maggiore memoria video che viene utilizzata anche per altri scopi cioè usano un sistema "unificato"


Oggi il marketing e la mala ottimizzazione dei giochi sta convincendo l'utenza che "serve sempre di più"
Non cadete in questo tranello, TLOU part 1 ( dove hanno risolto i crash dovuto a scarsa ottimizzazione) ha un consumo di risorse eccessivo non perché stiamo andando verso una migliore grafica quello è un esempio di come un portino è uscito prima del dovuto con una "poca pulizia" e quindi un uso "smodato" delle risorse

TLOU part 1 vi informo potrebbe girare su una macchina come ps4 ( usa lo stesso motore grafico del 2)
Inoltre ha un utilizzo anomalo della CPU, è come se adesso siccome il gioco utilizza male le risorse di CPU potrebbmmo dire che processori come il 10700k sono inadeguati!
 
Ultima modifica:
non è proprio cosi

Pure i PC usdano lo stesso sistema non è altro che la memeoria condivisa

Sull'argomento "memeoria video" ci sta talmente tanta disinformazione che sembra esserre tornati nel medioevo a confrontarsi "chi ce l'ha più lungo"

Visualizza allegato 456885

Quando ti dicono che la scheda "crasha"perchè e`finita la meoria video ti dicono una stronzata

Qaundo il sistema "finisce" la VRAM utilizza la RAM condivisa

Questo si può portare a delle anomalie come dei rallentamenti perchè l'accesso alla memoria condivisa è più lento ma non ci saranno problemi se questo è limitato al framebuffer

Per le console è "diverso" visto che vengono utilizzate principalmente per i giochi viene preferita maggiore memoria video che viene utilizzata anche per altri scopi cioè usano un sistema "unificato"


Oggi il marketing e la mala ottimizzazione dei giochi sta convincendo l'utenza che "serve sempre di più"
Non cadete in questo tranello, TLOU part 1 ( dove hanno risolto i crash dovuto a scarsa ottimizzazione) ha un consumo di risorse eccessivo non perché stiamo andando verso una migliore grafica quello è un esempio di come un portino è uscito prima del dovuto con una "poca pulizia" e quindi un uso "smodato" delle risorse

TLOU part 1 vi informo potrebbe girare su una macchina come ps4 ( usa lo stesso motore grafico del 2)
Inoltre ha un utilizzo anomalo della CPU, è come se adesso siccome il gioco utilizza male le risorse di CPU potrebbmmo dire che processori come il 10700k sono inadeguati!
ma infatti anche tlou è programmato con i piedi (come tanti altri giochi pc ultimamente).. in questi casi si meritano di piratarlo il gioco, sono una vergogna a far uscire tutti i giochi pc degli ultimi mesi così

ma questo screen in che punto sei andato su windows a vederlo? ci sono programmi che dicono la memoria di sistema condivisa?
perchè a me qui dici che ho solo 8gb di memoria condivisa? qui sono nelle informazioni dal pannello nvidia
poi mi da 20gb memoria grafica totale
 

Allegati

  • nv.webp
    nv.webp
    20.9 KB · Visualizzazioni: 19
Pubblicità
Pubblicità
Indietro
Top