UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Si preoccupano che 12GB di vram siano pochi per il 2560x1440p, manco fosse chi sa che risoluzione, parliamo di 3.7 milioni di pixel. E già tanto se si arriva a saturarne 8GB, ma li ci pensano gli sviluppatori cani, che in quello sono bravi, altrimenti in qualsiasi altro software, ottimizzato non dico bene, ma almeno decentemente, si sta tranquillamente sotto gli 8GB.
In ogni caso, esistono quei geroglifici nelle impostazioni, sezione grafica, chiamati: "Impostazioni Grafiche", che se utilizzate con cognizione di causa, possono fare miracoli sotto questo punto di vista. 😅
ma il punto e che non hjo visto saturare 12 gb di vrma nemmeno in VR sul quest 3
E credimi ho provato a mettere il rendering al 300% con una risoluzione di 4128x2208

MA fa bene dire che uno ce l'ha più lungo
 
ma il punto e che non hjo visto saturare 12 gb di vrma nemmeno in VR sul quest 3
E credimi ho provato a mettere il rendering al 300%
Ti credo, ne sono convinto io stesso al 100%.
12GB di vram sono overkill, per la grafica attuale. Posso capire in 4K, ma li parliamo di più del doppio dei pixel del classico QHD.
Penso che per diversi anni, ottimizzazione permettendo, 12GB sarà quella safe zone per il QHD, come lo sono stati gli 8GB in 1080p per diversi anni.
Mi ricordo ancora come sia gli 8GB della gtx 1070 che della rx 480/580 fossero overkill per il 1080p nel 2016/2017 e lo sono ancora oggi se proprio vogliamo dirla tutta ( parlo sempre degli 8GB e del 1080p ).
Comunque @crimescene , il marketing è estremamente efficace, purtroppo.
 
Ti credo, ne sono convinto io stesso al 100%.
12GB di vram sono overkill, per la grafica attuale. Posso capire in 4K, ma li parliamo di più del doppio dei pixel del classico QHD.
Penso che per diversi anni, ottimizzazione permettendo, 12GB sarà quella safe zone per il QHD, come lo sono stati gli 8GB in 1080p per diversi anni.
Mi ricordo ancora come sia gli 8GB della gtx 1070 che della rx 480/580 fossero overkill per il 1080p nel 2016/2017 e lo sono ancora oggi se proprio vogliamo dirla tutta ( parlo sempre degli 8GB e del 1080p ).
Comunque @crimescene , il marketing è estremamente efficace, purtroppo.
ma il punto è che vedo estrema ignoranza e non si riescono nemmeno a comprendere a pieno le tecnologie.
Si parla sempre di quantità mentre nel frattempo co sono le gddr6 e le gddr6x, la cache L2 è aumetnata di 15 volte e nvidia ha algoritmi di compressione nettamente milgiori di quelli di AMD

Le persone continuano a guardare il contatore e credono che la vram sia al limite
 
Ti credo, ne sono convinto io stesso al 100%.
12GB di vram sono overkill, per la grafica attuale. Posso capire in 4K, ma li parliamo di più del doppio dei pixel del classico QHD.
Penso che per diversi anni, ottimizzazione permettendo, 12GB sarà quella safe zone per il QHD, come lo sono stati gli 8GB in 1080p per diversi anni.
Mi ricordo ancora come sia gli 8GB della gtx 1070 che della rx 480/580 fossero overkill per il 1080p nel 2016/2017 e lo sono ancora oggi se proprio vogliamo dirla tutta ( parlo sempre degli 8GB e del 1080p ).
Comunque @crimescene , il marketing è estremamente efficace, purtroppo.
E figurati che per il 4k i vari fenomeni dicono che si può solo con 4090 o 7900xtx per la quantità di vRam... Assurdo
 
Ti credo, ne sono convinto io stesso al 100%.
12GB di vram sono overkill, per la grafica attuale. Posso capire in 4K, ma li parliamo di più del doppio dei pixel del classico QHD.
Penso che per diversi anni, ottimizzazione permettendo, 12GB sarà quella safe zone per il QHD, come lo sono stati gli 8GB in 1080p per diversi anni.
Mi ricordo ancora come sia gli 8GB della gtx 1070 che della rx 480/580 fossero overkill per il 1080p nel 2016/2017 e lo sono ancora oggi se proprio vogliamo dirla tutta ( parlo sempre degli 8GB e del 1080p ).
Comunque @crimescene , il marketing è estremamente efficace, purtroppo.

Sì però c'è anche da dire che negli ultimi anni è successa una cosa un po' strana, perchè, come hai giustamente ricordato tu, la GTX1070 nel 2016 aveva 8GB di VRAM. 5 anni e 2 generazioni dopo, nella stessa fascia di mercato e a un prezzo addirittura superiore la RTX3070ti ha riproposto 8GB di VRAM, nonostante a livello di potenza computazionale la RTX3070ti valga il 200-250% di una GTX1070. Prestazioni più che raddoppiate, prezzo più alto, ma stessa "capienza" di memoria.
Poi c'è la cache, la velocità maggiore e tutto quello che volete, ma non credo fosse mai successo prima che la quantità di memoria stagnasse così a lungo. E infatti, se nel 2016 gli 8GB di VRAM della GTX1070 erano abbondanti (ma 4GB sarebbero stati pochi) ora gli 8GB della RTX3070ti sono belli tirati, soprattutto in QHD.

Detto questo, se uno possiede una RTX3070ti in QHD ci gioca tranquillamente, però è innegabile che nelle ultime uscite vada fatto qualche compromesso (non solo e non tanto per la VRAM). Egli può reagire in due modi: accetta di buon grado dei compromessi che a livello di visione a schermo comunque non si traducono solitamente in grande rinuncie, oppure, se vuole il massimo, serve un aggiornamento. Una RTX4070ti o RTX4080 innegabilmente in QHD offrono un bel boost da una 3070ti e risolvono anche il "problema" memoria.
 
Sì però c'è anche da dire che negli ultimi anni è successa una cosa un po' strana, perchè, come hai giustamente ricordato tu, la GTX1070 nel 2016 aveva 8GB di VRAM. 5 anni e 2 generazioni dopo, nella stessa fascia di mercato e a un prezzo addirittura superiore la RTX3070ti ha riproposto 8GB di VRAM, nonostante a livello di potenza computazionale la RTX3070ti valga il 200-250% di una GTX1070. Prestazioni più che raddoppiate, prezzo più alto, ma stessa "capienza" di memoria.
Poi c'è la cache, la velocità maggiore e tutto quello che volete, ma non credo fosse mai successo prima che la quantità di memoria stagnasse così a lungo. E infatti, se nel 2016 gli 8GB di VRAM della GTX1070 erano abbondanti (ma 4GB sarebbero stati pochi) ora gli 8GB della RTX3070ti sono belli tirati, soprattutto in QHD.

Detto questo, se uno possiede una RTX3070ti in QHD ci gioca tranquillamente, però è innegabile che nelle ultime uscite vada fatto qualche compromesso (non solo e non tanto per la VRAM). Egli può reagire in due modi: accetta di buon grado dei compromessi che a livello di visione a schermo comunque non si traducono solitamente in grande rinuncie, oppure, se vuole il massimo, serve un aggiornamento. Una RTX4070ti o RTX4080 innegabilmente in QHD offrono un bel boost da una 3070ti e risolvono anche il "problema" memoria.
Ma io sono d'accordissimo con te su questa cosa, sarebbe stato giusto mettere 10GB/12GB sulla rtx 3070 e 3070ti, su quello non ci piove, ma purtroppo non è andata cosi e comunque sia, non trovo ( diciamo ) "furbo", aggiornare in questo momento una rtx 3070ti con una rtx 4000, anche perché, come già detto, esistono i settaggi grafici se per caso ci fossero problemi di vram in QHD, difficile ma non impossibile.
Abbassare le texture da Ultra ad alto, ti fa risparmiare 500/600 euro che puoi benissimo investire nella nuova architettura che uscirà nel 2024/2025 o 2026, poco importa, perché in quel lasso di tempo, la rtx 3070ti non diventerà ne obsoleta ne una gpu da grossi compromessi. Penso che su questo siamo d'accordo.
Che poi ognuno è libero di fare quello che vuole, se un utente vuole passare da una rtx 3080ti ad una rtx 4080 è libero di farlo, ma io non ne vedo l'urgenza, anzi la vedo come una "fortuna", una fortuna che ti permette di poter tirare avanti fino alla nuova generazione di gpu.
 
Ma io sono d'accordissimo con te su questa cosa, sarebbe stato giusto mettere 10GB/12GB sulla rtx 3070 e 3070ti, su quello non ci piove, ma purtroppo non è andata cosi e comunque sia, non trovo ( diciamo ) "furbo", aggiornare in questo momento una rtx 3070ti con una rtx 4000, anche perché, come già detto, esistono i settaggi grafici se per caso ci fossero problemi di vram in QHD, difficile ma non impossibile.
Abbassare le texture da Ultra ad alto, ti fa risparmiare 500/600 euro che puoi benissimo investire nella nuova architettura che uscirà nel 2024/2025 o 2026, poco importa, perché in quel lasso di tempo, la rtx 3070ti non diventerà ne obsoleta ne una gpu da grossi compromessi. Penso che su questo siamo d'accordo.
Che poi ognuno è libero di fare quello che vuole, se un utente vuole passare da una rtx 3080ti ad una rtx 4080 è libero di farlo, ma io non ne vedo l'urgenza, anzi la vedo come una "fortuna", una fortuna che ti permette di poter tirare avanti fino alla nuova generazione di gpu.
si ma a parte quei 2 video che sono usciti su hwunboxed che prendevano quei 3 giochi ottimizzati malissimo usciti a inizio del 2023 ( TLOU HL ecc) per affermare "8gb di vram sono pochi) qualcuno si è più lamentato?
 
si ma a parte quei 2 video che sono usciti su hwunboxed che prendevano quei 3 giochi ottimizzati malissimo usciti a inizio del 2023 ( TLOU HL ecc) per affermare "8gb di vram sono pochi) qualcuno si è più lamentato?
No nessuno che io sappia, ciò non toglie che 8GB su una rtx 3070/3070ti non sono del tutto ottimali, visto che le due gpu potevano anche spingersi a 2160p con la forza bruta in diversi giochi, ma la vram diventa un fattore limitante a quella risoluzione, ma anche parlando del più semplice WQHD.

Sul fatto che 8GB di vram bastano sia in 1080p che 1440p sono pienamente d'accordo con te.
 
No nessuno che io sappia, ciò non toglie che 8GB su una rtx 3070/3070ti non sono del tutto ottimali, visto che le due gpu potevano anche spingersi a 2160p con la forza bruta in diversi giochi, ma la vram diventa un fattore limitante a quella risoluzione, ma anche parlando del più semplice WQHD.

Sul fatto che 8GB di vram bastano sia in 1080p che 1440p sono pienamente d'accordo con te.
questo l'ho sempre affermato anche io che nvidia è arcigna di vram non è una cosa nuova e con schede coma la 3070 potevano benisismo metterne di più ma mi chiedo se sarebbe cambiato qualcosa a parte ilf atto di dire ho tanta vram ( chi ha una 3060 gioca forze meglio in QHD?)

Poi l'ho detto un milione di volte una CPu nvidia ha algoritmi di compressioni diversi da AMD sulla memeoria

Per come la vedo io rimane sempre un falso problema poiché comuqnue parliamo di CPU che ormai sono uscite da 3 anni e una GPU che dopo 3 anni devi mettere qualche impostaizoni da ultra a alto o a medio è anche normale
 
Che

Che tipo di compressione usano AMD e Nvidia?
E'uin argomento motlo vasto e complesso ep[ potrebbe dipendere anche dal gioco che si va a giocare , ma parlando di giochi nuovi Nvidia ha introdotto deglia lgoritmi di compressioni molto avanzatoi che si chiamano NTC ( neural texture compression)
Che permettono una diminuzione del carico di memeroia del 30%


AMD usa tecniche più classiche su compressione "a blocchi"
 
Qualcuno di voi ha avuto il problema dell'assenza di segnale video durante l'accensione del pc? Ho scaricato l'app per l'aggiornamento firmware ma mi dice che è già aggiornato. Ho anche utilizzato un cavo display port nuovo e niente, in hdmi si avvia normalmente
(Ho una 4080)
 
Qualcuno di voi ha avuto il problema dell'assenza di segnale video durante l'accensione del pc? Ho scaricato l'app per l'aggiornamento firmware ma mi dice che è già aggiornato. Ho anche utilizzato un cavo display port nuovo e niente, in hdmi si avvia normalmente
(Ho una 4080)
scusami, ma così non abbiamo dati su cui ragionare per aiutarti ad arrivare ad una soluzione.

modello preciso del monitor?
che cavo stai usando? Display Port e ok... ma quale?
scheda madre? Versione del bios?
che processore?
Che ram? modelli precisi.
Alimentatore? (questo è estremamente importante!)
la scheda video da quanti e quali cavi è alimentata?
 
Pubblicità
Pubblicità
Indietro
Top