UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Per completezza, l'alternativa ci sarebbe ed è quella che sta percorrendo amd con l'infinity cache (a sua volta resa economicamente conveniente dal multidie).
In futuro, se questo approccio progredisce (e non vedo perché non dovrebbe) la larghezza della banda ram diventerà sempre meno rilevante (entro certi limiti ovvio).

Chiaramente non siamo a quel punto ancora.
L’infinity cache è solo un nome di marketing dato ad una cache. E con RDNA ha dimostrato di funzionare in modo limitato (in 4K le Radeon soffrivano di un calo rispetto alle Nvidia che hanno usato un approccio più brutale, con bus a 384 bit).

peraltro Ada L ha già in parte usato un approccio simile, con cache molto maggiore (ed infatti hanno ridotto il bus).

La 4090 ti permette di giocare a 1440p alla grande, sfruttando stupende tech come il dldsr e godendo di alto frame rate, o ancor meglio, utilizzare il Rt in nativo ;)
Ti abbiamo già detto in ventordici che prendere una 4090 per giocare a 1440P è una follia.
Ora puoi pure rispondere che a te piace fare la follia, i soldi in tasca danno fastidio e nessuno ti può obiettare nulla…

ma resta una follia senza senso.
 
Almeno questa volta ci sarà la FE, poi se leggi a modo il mio commento ho già detto che è sempre troppo. Io per una scheda del genere pagherei max 500, ho il braccino corto xD
Beh , a parte che la disponibilità di FE è tutta da verificare, ma francamente c’è anche gente che una FE non la vuole.
Resta il fatto che 740/750 euro, e mi sto tenendo stretto, per una 4070 non sono un prezzo paragonabile a quello di lancio della 3070, ad esempio.

Non dico che sarebbe giusto chiederne massimo 550 come dici tu, ma diciamo che è una scheda che al massimo dovrebbe costare 600/650 euro al lancio.
 
nessuno ha mai detto che basteranno per sempre

E' sbalgiato dire che OGGI non bastano perché questo è palesemente falso poi che ci "lesinano" sulle memorie ``e un altro discorso.

Chi ha detto che non bastano? L'ho ripetuto due volte: 8GB non rendono ingiocabili i titoli moderni.
Ma rendono la 3070 poco equilibrata.

far cry 6 non ha bisogno di tutta quella memoria ha bisogno di tanta memoria solo se scarichi le le texture 4k A PARTE

Ed è un unicum

Ehm, no. Il RT presente su Far Cry 6, che aggiunge poco alla grafica, gira anche sulla mia 6600. Ma o è attivo il RT, o metti le texture ad ultra.
In 1080p. Figurarsi in 1440p, risoluzione target della 3070.
Non c'entra nulla l'HD texture pack. Ed è un gioco singolo che ho citato tra i tanti, pubblicati sia prima che dopo, non soffermiamoci solo su una minuscola parte del mio discorso.

non proprio Hogwart legacy è un titolo che gira male su qualunque scheda e non per problemi di memoria video, ha stuttering pesanti dentro al castello ancora non risolti dopo che il gioco lo hanno finito quasi tutto o abbandonato
Non hanno risolto un bel nulla o almeno non ancora visto che lo stuttering in gran parte delle aree del castello è onnipresente e succede con qualsiasi scheda grafica non importa quanta memeroia video hai

Io ho terminato quel gioco, e sulla 6600 non ho mai avuto problemi di performance. Se non ad Hogsmeade, dove però era la CPU il problema.
Il primo problema risolto è quello del RT sulle schede con 8GB, dove le performance crollavano letteralmente. Sono state fatte anche altre migliorie.

semplice domanda 10gnb di memoria video in QHD su una 3080 sono pochi?

Risposta secondo me no sono più che sufficienti e lo saranno per almeno altri 2 anni.

Sena considerare che la memoria video è un falso problema, o come giustamente dice @Max(IT) un problema che vogliono far sembrare molto più "grande" di quello che è

Sì, sono pochi. Non in senso stretto, ma la 3080 12GB è una scheda decisamente più equilibrata, come lo sono 4070 Ti e probabilmente 4070. Tralasciando il prezzo.
Sono contento che tu abbia la sfera di cristallo, io previsioni non sono in grado di farne.
10GB ti "costringono" a fare delle scelte già adesso se si vuole evitare completamente ogni tipo di stuttering.
Nulla di trascendentale, al più abbassare un dettaglio da ultra ad alto.
Credo che tu abbia frainteso la questione. Io non la penso come Kal-El, lui esaspera completamente il discorso
, ma è una scheda che non costa poco, e quindi si poteva fare di più.

Se parliamo poi di memorie non ha nemmeno senso parlare di sola quantità perchè entrano in gioco cose come la velocita ed il bus i 12 Gb di memoria della 3060 non sono "meglio" dei 10GB della 3080

La 3060 avrebbe potuto montare tranquillamente 8GB, ma con quel bus c'erano poche alternative. Inutile qualsiasi confronto, comunque. Hanno come target due risoluzioni diverse e le performance non sono nemmeno paragonabili.
 
Ultima modifica:
L’infinity cache è solo un nome di marketing dato ad una cache. E con RDNA ha dimostrato di funzionare in modo limitato (in 4K le Radeon soffrivano di un calo rispetto alle Nvidia che hanno usato un approccio più brutale, con bus a 384 bit).
Si, è da zen2 che la chiamano così (se non prima) ma alla fine è solo cache in abbondanza rispetto alla norma.

Detto questo, non è che di per sé la cache abbia dei limiti di efficacia.

Semplicemente l'architettura rdna3 non scala bene come volevano/pensavano con la memoria sopra certi limiti.
Per questo hanno ottenuto risultati sotto le aspettative. Infatti era prevista la possibilità di includere ancora più cache ma visti i risultati si sono fermati prima.
Se invece della cache avessero messo bus equivalentemente più ampi avrebbero molto probabilmente ottenuto gli stessi (miediocri) incrementi di prestazioni.
Se la "infinity cache" l'avessero incollata a fianco delle gpu nvidia avrebbe funzionato magari meglio (visto che sembra scalare meglio con la memoria).

Teoricamente quantità di cache e ampiezza di banda, dal punto di vista della gpu sono pressoché equivalenti. Alla fine lei vede solo gli accessi alla memoria, se sono rapidi o meno per merito di una cosa più che un altra non cambia nulla.
 
In questo caso specifico The Last of Us Parte 1 semplicemente non può girare al massimo su schede video dotate di meno di 12 GB di Vram: la schermata delle opzioni grafiche è estremamente chiara in tal senso e riporta l'impiego di memoria in base alle regolazioni effettuate sul fronte della risoluzione e dei preset e/o delle singole voci. Forzare la mano porta non solo a sperimentare evidenti cali di frame rate nelle situazioni più movimentate, ma anche e soprattutto crash e freeze -Nota Rivista-
Signori e Signore, il MAESTRO colpisce ancora, grazie a tutti per il supporto <3
 
Ultima modifica:
Signori e Signore, il MAESTRO colpisce ancora, grazie a tutti per il supporto <3
Comunque sulla bara nel menu dei settaggi grafici di TLOU che indica il quantitativo di vram utilizzata, ti garantisco che non è precisa. Se noti nella prima frazione viene messo in conto ( ce scritto ) che 2.6GB di vram vengono calcolati per il sisetma operativo e altri software aperti e questo vale su tutti i pc, ma se un utente ha tutto spento col cavolo che satura 2.6GB di vram solo con il sistema operativo. Questo serve come indicazione dei casi peggiori in cui un utente "furbo" tiene aperto altri 4/5 software che richiedono vram, mentre avvia un gioco. Infatti a me quella bara da che sto utilizzando 13.4GB di vram mentre in game MSI mi indica 11GB allocati e solo 9.5 max 10GB utilizzati, che ti ricordo bene essere memoria in eccesso preso dal software per immagazzinare dati come la cache di una cpu. Quella memoria extra non serve per far girare il gioco.
I crash su TLOU sono dovuti all'alto refresh rate che causa dei picchi di stuttering tali da freezare l'intero software. Infatti basta cappare i frame a 60 e si evitano i crash, in quanto i picchi di stuttering saranno molto più piccoli, tali da non causare crash.
--- i due messaggi sono stati uniti ---
Non ti fidi di me???
:(
Non è questione di fiducia, le fonti servono. E come se cito un tuo commento cancellando il tuo nome, cosi da non far capire ad altri utenti a chi io stia rispondendo o altro, l'utente sarà costretto a recuperare i mex vecchi per capire a chi appartiene quella frase citata. Non so se mi spiego.
 
Comunque sulla bara nel menu dei settaggi grafici di TLOU che indica il quantitativo di vram utilizzata non è precisa. Se noti nella prima frazione viene messo in conto ( ce scritto ) che 2.6GB di vram vengono calcolati per il sisetma operativo e altri software aperti e questo vale su tutti i pc, ma se un utente ha tutto spento col cavolo che satura 2.6GB di vram solo con il sistema operativo. Questo serve come indicazione dei casi peggiori in cui un utente "furbo" tiene aperto altri 4/5 software che richiedono vram, mentre avvia un gioco. Infatti a me quella bara da che sto utilizzando 13.4GB di vram mentre in game MSI mi indica 11GB allocati e solo 9.5 max 10GB utilizzati, che ti ricordo bene essere memoria in eccesso preso dal software per immagazzinare dati come la cache di una cpu. Quella memoria extra non serve per far girare il gioco.
I crash su TLOU sono dovuti all'alto refresh rate che causa dei picchi di stuttering tali da freezare l'intero software. Infatti basta cappare i frame a 60 e si evitano i crash.
--- i due messaggi sono stati uniti ---

Non è questione di fiducia, le fonti servono. E come se cito un tuo commento cancellando il tuo nome, cosi da non far capire ad altri utenti a chi io stia rispondendo o altro, l'utente sarà costretto a recuperare i mex vecchi per capire a chi appartiene quella frase citata. Non so se mi spiego.
Basta con le giustificazioni dai, per favore, sono stanco, bisogna accettarle determinate cose, soprattutto quando dimostrate con dati!!!
la fonte è la review di Multy, ma chiunque, afferma ciò.

N.B.
Io direi che oggi, possiamo/POTETE consigliare a chi vuole aggiornare per il 1440p, una GPU con almeno 12Gb di Vram, in ragione dei numerosi riscontri che stiamo avendo dagli ultimi giochi usciti, risulta quindi non consono e non attendibile, consigliare una gpu con meno di 12Gb di Vram per il 1440p nei giochi moderni.
 
Non è questione di fiducia, le fonti servono
presumo la fonte sia questa: https://multiplayer.it/recensioni/the-last-of-us-parte-1-recensione-versione-pc.html
il che non fa che confermare quanto scrissi parecchi mesi fa: gli sviluppatori NON ottimizzano nulla, delegano all'hw sottostante la loro incapacità o mancanza di voglia/tempo e/o dictat di chi li paga, e i giochi escono a schifo, altro che poca VRAM
Basta con le giustificazioni dai, per favore, sono stanco, bisogna accettarle determinate cose
manco per niente che vanno accettate: se si accetta come pecoroni si fa passare il messaggio che per qualunque schifo di gioco ci vuole minimo una scheda video da 1000 euro, non siamo ridicoli
 
Finché i giochi saranno fatti coi piedi nemmeno 12 GB basteranno, secondo voi la grafica (tolto il RT ovviamente) è migliorata in questi 2/3/4 anni? Per me assolutamente no, io vedo rdr 2 ancora come il miglior gioco con la migliore grafica in assoluto, se 4 anni fa 8 GB bastavano e avanzavano ora come si spiega che 12 gb non bastano?? È assurdo, se ciò è reale c'è qualcosa che non torna.
 
Pubblicità
Pubblicità
Indietro
Top