UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
oggi finalmente ho iniziato un gioco che riesce a mettere un minimo sotto carico la 4080 a 1440P.
Avengers con tutto a palla mi arriva al 100% di utilizzo (certo, con la CPU al 22% 😅), con un consumo poco sopra i 300W e frame rate elevato.
Le temperature, con 22° di Tamb, restano ottime

1680105979988.webp

considerando che le fan non superano il 40%

1680106025253.webp

Signori e signore com'era il discorso della Vram, che 8GB sono sufficienti per il 1440p???
Andate a dare un'occhiata a TLOU parte I per Pc, andate andate.
Ah ok, voi vi riferivate a giochi del 2019, si, in quel caso è sufficiente ;)
#KalHaSempreRagione
8GB ? Ma se tu parlavi della 3080 che di GB ne ha 10 !
Hai le idee confuse, come sempre... 🤦‍♂️

Ma poi non perdi il vizio di giudicare l'hw con titoli appena usciti e buggati.
 
TLOU è un gioco stupendo ma si sapeva già che avrebbe avuto grane su pc perchè è stato affidato ad IRON GALAXY STUDIOS

Che non sono proprio stati il massimo in quanto a porting da ps5 ( hanno avuto gli stessi bug su uncharted)
si ma dategli anche il tempo... è uscito tipo ieri. Le patch arriveranno.
Anche Hogwarts aveva dei memory leak mostruosi che sono in parte risolti.

A parte il discorso trito e ritrito del quantitativo di Vram, non impareranno mai, Nvidia sta per uccidere la fascia media col bus a 128bit.
Queste 2 schede sono DOA.

Visualizza allegato 456490
8 GB di VRAM non mi piacciono, specie sulla 4060 Ti, ma come ho detto altrove, aspettiamo i numeri prima di giudicare. Avere 128 bit non signifca nulla, di per sé.
Quali sono le prestazioni a 1080P e 1440P, che sono il massimo target di questo hw ?
Perché se mi tiri fuori 100 FPS di media a 1440P, per me puoi mettere anche il bus da 64 bit e non me ne frega nulla. È un numero.
Certo, se invece a 1440P già lo vedi in difficoltà, allora hai ragione a lamentarti.

Alla fine con la 4070Ti ci si è lamentati, ma la scheda a 1440P non ha alcun collo di bottiglia, e tutto sommato gestisce bene anche il 4K, a dispetto del bus strozzato.

Il tema della VRAM ritorna ad ogni generazione.
Ma ci si pone la domanda sbagliata. Il problema non è se "bastano 8 GB". Bastano per fare cosa? Di quale scheda stiamo parlando? Di quali titoli? Qual è la risoluzione e quali i settaggi target?
La domanda da porsi è se una data scheda è equilibrata rispetto al quantitativo di memoria che monta, e se in futuro questi costituiranno un collo di bottiglia rispetto a quello che può fare la GPU in termini di pura forza bruta.
La risposta per le schede dalla 3070 in su è no, non sono equilibrate. Poi uno può credere che 8 GB basteranno per sempre, ma non è così, piaccia oppure no.
la 3070 è stata l'esempio più lampante di segmentazione artificiale.
In quel caso gli 8 GB di VRAM non li ho mai digeriti, ma non perché non bastassero realmente, bensì perché ci si aspettava un gradino sopra rispetto alla generazione precedente.
Ed in questo caso effettivamente gli 8 GB rischiano di diventare un limite prima della potenza della GPU stessa (anche se non lo ha ordinato il medico di tenere tutto a Ultra eh).
 
si ma dategli anche il tempo... è uscito tipo ieri. Le patch arriveranno.
Anche Hogwarts aveva dei memory leak mostruosi che sono in parte risolti.


8 GB di VRAM non mi piacciono, specie sulla 4060 Ti, ma come ho detto altrove, aspettiamo i numeri prima di giudicare. Avere 128 bit non signifca nulla, di per sé.
Quali sono le prestazioni a 1080P e 1440P, che sono il massimo target di questo hw ?
Perché se mi tiri fuori 100 FPS di media a 1440P, per me puoi mettere anche il bus da 64 bit e non me ne frega nulla. È un numero.
Certo, se invece a 1440P già lo vedi in difficoltà, allora hai ragione a lamentarti.

Alla fine con la 4070Ti ci si è lamentati, ma la scheda a 1440P non ha alcun collo di bottiglia, e tutto sommato gestisce bene anche il 4K, a dispetto del bus strozzato.


la 3070 è stata l'esempio più lampante di segmentazione artificiale.
In quel caso gli 8 GB di VRAM non li ho mai digeriti, ma non perché non bastassero realmente, bensì perché ci si aspettava un gradino sopra rispetto alla generazione precedente.
Ed in questo caso effettivamente gli 8 GB rischiano di diventare un limite prima della potenza della GPU stessa (anche se non lo ha ordinato il medico di tenere tutto a Ultra eh).
Peccato anche perché sia la rtx 3070 che la rtx 3070ti hanno la potenza per gestire anche il 2160p in modo modesto. Però in quel caso il quantitativo diventa un fattore fortemente limitante a differenza del 1440p.
I 10Gb della rtx 3080 sono più che sufficienti per il 1440p, mentre i 12GB della mia gpu o della versione ti sono anche abbondanti in 1440p e sufficienti per gestire il 2160p.
In effetti vedere sulla rtx 4060ti 8GB fa storcere il naso.
 
Poca per fare cosa? Su una 2080 8 GB non sono un problema, neanche in QHD.
Su una 3070 invece sì, e non perché i titoli diventano ingiocabili con 8 GB, ma perché costringono ad abbassare dettagli che per il GA104 non sarebbe un problema gestire.
Poi c'è poco da prevedere, nel tempo i giochi chiederanno più risorse. Non si può sapere quante di più, ma saranno di più.
E questo tralasciando i giochi rilasciati in uno stato pietoso. Ma succederà sempre più spesso, come già sta avvenendo, perché la baseline sono le console di nuova generazione, e gli sviluppatori hanno come target quelle risorse, se un gioco gira male su PC meno potenti pazienza, budget e tempo per lo sviluppo sono limitati.
Concordo con il tuo ragionamento, se uno compra una scheda nuova oggi con la previsione di tenerla per un tempo normale(diciamo 3/4 anni) gli 8GB nel breve periodo diventeranno un bottleneck non indifferente, quando si parla di schede da oltre 400 euro. Gli 8GB in questo momento sono da considerarsi un buffer consono alla fascia bassa. Se uno cambia scheda tutti gli anni allora ci può stare tutto.
 
oggi finalmente ho iniziato un gioco che riesce a mettere un minimo sotto carico la 4080 a 1440P.
Avengers con tutto a palla mi arriva al 100% di utilizzo (certo, con la CPU al 22% 😅), con un consumo poco sopra i 300W e frame rate elevato.
Le temperature, con 22° di Tamb, restano ottime

Visualizza allegato 456553

considerando che le fan non superano il 40%

Visualizza allegato 456554


8GB ? Ma se tu parlavi della 3080 che di GB ne ha 10 !
Hai le idee confuse, come sempre... 🤦‍♂️

Ma poi non perdi il vizio di giudicare l'hw con titoli appena usciti e buggati.
strano avengers non è manco un gioco pesante
 
Avengers in 4k ha messo in ginocchio la mia 2080ti 🙃 poverina, sembra un giochino leggero ma ci sono scene caotiche dove il framerate scende di brutto
 
Avengers in 4k ha messo in ginocchio la mia 2080ti 🙃 poverina, sembra un giochino leggero ma ci sono scene caotiche dove il framerate scende di brutto
In realtà anche in rdr2, con la 2080ti nuova e fiammante, appena uscita dalla fabbrica nVidia, veniva messa in ginocchio ;)
È ora di aggiornare, caro ragazzo 😂😂😂
 
In realtà anche in rdr2, con la 2080ti nuova e fiammante, appena uscita dalla fabbrica nVidia, veniva messa in ginocchio ;)
È ora di aggiornare, caro ragazzo 😂😂😂
Avoglia rdr 2 l'ho giocato a 1440p, ovvio 🤣 in 4k andavo massimo a zappare l'orto 😎
--- i due messaggi sono stati uniti ---
@Kal El io quando aggiorno lo faccio in grande, appena esce gta 6 mi faccio un pc ad hoc per giocarlo in 4k maxxato con picchi minimi sui 70 fps. Prima di quel momento nessun gioco è degno di farmi spendere 2 testoni per aggiornare 😎
 
A parte il discorso trito e ritrito del quantitativo di Vram, non impareranno mai, Nvidia sta per uccidere la fascia media col bus a 128bit.
Queste 2 schede sono DOA.

Visualizza allegato 456490

Tu parli giustamente del bus, ma come diceva Max sopra il bus è solo un numero e alla fine non è nemmeno detto sia così limitante.
Io invece volevo porre l'attenzione sul fatto che, secondo il rumor, la RTX4060 sarà basata sulla AD107-400. L' xx7 di Nvidia è sempre stata la GPU di fascia bassa, solitamente arrivata nel mercato con il nome di xx50.
Quindi, al di là del bus, quello che sta facendo Nvidia è, di nuovo, chiamare RTX4060 una scheda video che normalmente avrebbero venduto una fascia sotto. Questa sarà fascia media nei prezzi (facilmente spareranno 400€ per la RTX4060 e 400 ormai è diventata fascia media, una volta costavano meno), ma nella loro offerta è la fascia bassa.
 
facilmente spareranno 400€ per la RTX4060 e 400
Io non so perchè ho come il sentore che costerà pure di più di 400 euro... e non poco di più..spero di sbagliarmi ma ho timore che costerà ben di più.. poi al lancio, coi prezzi in Italia... dopo aver visto le 4070 a 50 dollari di meno delle 4070ti purtroppo mi aspetto un prezzo ben più alto del tuo pronostico anche per le 4060...
 
Ultima modifica:
Il tema della VRAM ritorna ad ogni generazione.
Ma ci si pone la domanda sbagliata. Il problema non è se "bastano 8 GB". Bastano per fare cosa? Di quale scheda stiamo parlando? Di quali titoli? Qual è la risoluzione e quali i settaggi target?
La domanda da porsi è se una data scheda è equilibrata rispetto al quantitativo di memoria che monta, e se in futuro questi costituiranno un collo di bottiglia rispetto a quello che può fare la GPU in termini di pura forza bruta.
La risposta per le schede dalla 3070 in su è no, non sono equilibrate. Poi uno può credere che 8 GB basteranno per sempre, ma non è così, piaccia oppure no.

Concordo con quello che hai scritto. RTX3070\RTX3070ti, ma in parte anche RTX3080 10GB, sono nate limitate dalla memoria. Con la RTX3070, l'ho sperimentato io stesso addirittura all'uscita con MSFS2020.
Però c'è anche da dire che spesso la limitazione imposta dalla VRAM costringe semplicemente ad abbassare di uno step le texture rispetto a quanto potrebbe gestire una scheda analoga per potenza ma con più VRAM (una ipotetica RTX3070 16GB, ad esempio).
Insomma, nei benchmark a volte viene fatto passare come un problema più grave di quello che è, considerando che i dettagli si possono abbassare. Tuttavia, sono compromessi che si aggiungono e non fanno mai piacere.

Del resto, non per diferendere Nvidia, azienda tra le peggiori al mondo come politiche anti-consumer, ma la 3070 è nata con un bus che non consentiva una scelta di memoria al 100% corretta, perchè idealmente avrebbe dovuto avere a disposizione 12GB di VRAM per non avere problemi in nessuna caso. Tuttavia il bus 256 bit lo impedisce, a meno di non usare memoria a densità diverse che però non sono mai una soluzione ideale. Quindi Nvidia aveva due scelte: sovradimensionare dotandola di 16GB di VRAM che non sarebbero mai stati sfruttati totalmente, oppure risparmiare usandone 8 (ovviamente il risparmio l'hanno usato per aumentare il margine). Sulla RTX3070 si è scelta la seconda strada, mentre, ad esempio, sulla RTX3060 si è scelta la prima: probabilmente 6GB di VRAM sono stati ritenuti troppo limitanti e allora ne hanno messi 12, che però su una RTX3060 non servono mai (l'ideale sarebbe stato 8, ma non si poteva...).

Io non so perchè ho come il sentore che costerà pure di più di 400 euro... e non poco di più..spero di sbagliarmi ma ho timore che costerà ben di più.. poi al lancio, coi prezzi in Italia...

E' una scheda che, vista così, potrebbe andare quanto una 3060ti, forse anche meno (dipende che frequenze sceglieranno). Quindi il prezzo sarà per forza sui 400, magari 420.... Se la piazzano a prezzo più alto non gliela compra nessuno.
 
Ultima modifica:
Ricordiamoci che le fasce medie di una votla il full hd te lo facevano maxxare col binocolo ora invece una Scheda sulla fascia delle 400/450 ti maxxa tutto pure il cristo, in Full hd ovviamente.
Il prezzo è in linea, un po caro ma comunque giustificato, ora che il full HD è ancora lo standard per intendersi.
 
Ricordiamoci che le fasce medie di una votla il full hd te lo facevano maxxare col binocolo ora invece una Scheda sulla fascia delle 400/450 ti maxxa tutto pure il cristo, in Full hd ovviamente.
Il prezzo è in linea, un po caro ma comunque giustificato, ora che il full HD è ancora lo standard per intendersi.

Guarda è un discorso che personalmente avevo già affrontato: i nomi in sè non sono un problema.
Se però la nuova generazione dal punto di vista del rapporto prestazioni\prezzo non porta sostanziali novità rispetto alle vecchie e per di più aumenta il prezzo d'ingresso, questo sì che è un problema. Perchè sotto la RTX4060 potrebbe anche non esserci altro, quindi chi non ha 400€ per la scheda grafica (solo per la scheda grafica, poi c'è tutto il resto) semplicemente su PC non gioca. Invece a me piacerebbe vedere anche schede di fascia bassa un po' più interessanti, non i soliti prodotti vecchi di anni non al passo con i tempi e con rapporto prezzo\prestazioni orribile.
 
Ultima modifica:
Se però la nuova generazione dal punto di vista del rapporto prestazioni\prezzo non porta sostanziali novità rispetto alle vecchie e per di più aumenta il prezzo d'ingresso, questo sì che è un problema
Questo è un grosso problema perchè non vedo a che pro, uno che ha una 3060 o una 3060 ti dovrebbe comprare una scheda di stesso segmento ma di generazione nuova che ha più o meno le stesse prestazioni.. per il DLSS3? Si ok, può essere un ottimo boost ma se diventa solo per questo.. al periodo, quando comprai la 1070, questa stando ai benchmarks andava all'incirca come una 980ti, è progresso tecnologico ma se la nuova va come il segmento della vecchia mi sembra un pò na mezza follia.. mi sarei aspettato le prestazioni di una 3070/3070 ti dalla 4060.. 🤨
 
Pubblicità
Pubblicità
Indietro
Top